Рубріки: Новости

Илон Маск, Стив Возняк и Юваль Харари требуют приостановить обучение мощным систем ИИ

Ігор Шелудченко

Стив Возняк, Илон Маск, Эван Шарп (Pinterest), Крис Ларсен (Ripple), Юваль Харари и сотни других предпринимателей, инвесторов и разработчиков требуют приостановить гигантские эксперименты с ИИ и ChatGPT.

Об этом говорится в открытом письме-петиции, размещенном на сайте неприбыльной организации Future of Life Institute.

Опасность рядом

Одно из основных требований — приостановить минимум на 6 месяцев тренировки систем ИИ, которые могут быть мощнее GPT-4.

По словам авторов, мощные системы искусственного интеллекта могут породить серьезные риски для общества и человечества.

Авторы письма ссылаются на принципы искусственного интеллекта Asilomar , в которых сказано, что мощный искусственный интеллект может представлять глубокое изменение в истории жизни на Земле, и его следует планировать и управлять соответствующим усердием и ресурсами . И, к сожалению, такого уровня планирования и управления не существует.

Вместо этого должен быть разработан и внедрен набор общих протоколов безопасности для разработки ИИ, тщательно проверенных и контролируемых независимыми экспертами.

Меры безопасности

Для того чтобы нивелировать негативное влияние ИИ, нужно наладить сотрудничество между разработчиками и политиками. Что включает:

  • новые и эффективные регуляторные органы;
  • отслеживание высококвалифицированных ИИ-систем;
  • ответственность за вред, который они могут нанести;
  • исследование технической безопасности ИИ.

Также авторы письма считают, что нужно:

  • создать рабочую группу независимых экспертов и ИИ-лабораторий для развития и внедрения общих протоколов безопасности;
  • сделать обязательным отслеживание высококвалифицированных ИИ-систем и крупных кластеров вычислительной мощности;
  • создать систему provenance и watermarking, чтобы различать реальные данные от синтетических и отслеживать утечки моделей;
  • развить экосистему аудитирования и сертификации, чтобы она была надежной и эффективной;
  • создать финансовую поддержку инфраструктуры для того, чтобы справиться с драматическими экономическими и политическими сдвигами, которые могут быть вызваны ИИ (в частности, это касается демократии).

Кроме того, подписанты считают, что нужно установить ответственность за ущерб, который могут нанести ШИ-системы.

«Общество может наслаждаться благодатями ИИ в будущем, если развитие ИИ будет ответственное и безопасное», — резюмируется в обращении.

Интересно, что совсем недавно создатель культового фильма «Терминатор» Джеймс Кэмерон заявил, что опасается, что развитие искусственного интеллекта может зайти слишком далеко.

Читайте также:

«Может выйти из-под контроля»: Билл Гейтс оценил будущее ИИ

Украинские работодатели начинают искать кандидатов со знанием ChatGPT: зарплаты – до 120 тыс. грн

Искусственный интеллект полностью автоматизирует 300 млн рабочих мест – Goldman Sachs

Останні статті

Обучение Power BI – какие онлайн курсы аналитики выбрать

Сегодня мы поговорим о том, как выбрать лучшие курсы Power BI в Украине, особенно для…

13.01.2024

Work.ua назвал самые конкурентные вакансии в IТ за 2023 год

В 2023 году во всех крупнейших регионах конкуренция за вакансию выросла на 5–12%. Не исключением…

08.12.2023

Украинская IT-рекрутерка создала бесплатный трекер поиска работы

Unicorn Hunter/Talent Manager Лина Калиш создала бесплатный трекер поиска работы в Notion, систематизирующий все этапы…

07.12.2023

Mate academy отправит работников в 10-дневный оплачиваемый отпуск

Edtech-стартап Mate academy принял решение отправить своих работников в десятидневный отпуск – с 25 декабря…

07.12.2023

Переписки, фото, история браузера: киевский программист зарабатывал на шпионаже

Служба безопасности Украины задержала в Киеве 46-летнего программиста, который за деньги устанавливал шпионские программы и…

07.12.2023

Как вырасти до сеньйора? Девелопер создал популярную подборку на Github

IT-специалист Джордан Катлер создал и выложил на Github подборку разнообразных ресурсов, которые помогут достичь уровня…

07.12.2023