Илон Маск, Стив Возняк и Юваль Харари требуют приостановить обучение мощным систем ИИ
Стив Возняк, Илон Маск, Эван Шарп (Pinterest), Крис Ларсен (Ripple), Юваль Харари и сотни других предпринимателей, инвесторов и разработчиков требуют приостановить гигантские эксперименты с ИИ и ChatGPT.
Об этом говорится в открытом письме-петиции, размещенном на сайте неприбыльной организации Future of Life Institute.
Опасность рядом
Одно из основных требований — приостановить минимум на 6 месяцев тренировки систем ИИ, которые могут быть мощнее GPT-4.
По словам авторов, мощные системы искусственного интеллекта могут породить серьезные риски для общества и человечества.
Авторы письма ссылаются на принципы искусственного интеллекта Asilomar , в которых сказано, что мощный искусственный интеллект может представлять глубокое изменение в истории жизни на Земле, и его следует планировать и управлять соответствующим усердием и ресурсами . И, к сожалению, такого уровня планирования и управления не существует.
Вместо этого должен быть разработан и внедрен набор общих протоколов безопасности для разработки ИИ, тщательно проверенных и контролируемых независимыми экспертами.
Меры безопасности
Для того чтобы нивелировать негативное влияние ИИ, нужно наладить сотрудничество между разработчиками и политиками. Что включает:
- новые и эффективные регуляторные органы;
- отслеживание высококвалифицированных ИИ-систем;
- ответственность за вред, который они могут нанести;
- исследование технической безопасности ИИ.
Также авторы письма считают, что нужно:
- создать рабочую группу независимых экспертов и ИИ-лабораторий для развития и внедрения общих протоколов безопасности;
- сделать обязательным отслеживание высококвалифицированных ИИ-систем и крупных кластеров вычислительной мощности;
- создать систему provenance и watermarking, чтобы различать реальные данные от синтетических и отслеживать утечки моделей;
- развить экосистему аудитирования и сертификации, чтобы она была надежной и эффективной;
- создать финансовую поддержку инфраструктуры для того, чтобы справиться с драматическими экономическими и политическими сдвигами, которые могут быть вызваны ИИ (в частности, это касается демократии).
Кроме того, подписанты считают, что нужно установить ответственность за ущерб, который могут нанести ШИ-системы.
«Общество может наслаждаться благодатями ИИ в будущем, если развитие ИИ будет ответственное и безопасное», — резюмируется в обращении.
Интересно, что совсем недавно создатель культового фильма «Терминатор» Джеймс Кэмерон заявил, что опасается, что развитие искусственного интеллекта может зайти слишком далеко.
Читайте также:
«Может выйти из-под контроля»: Билл Гейтс оценил будущее ИИ
Украинские работодатели начинают искать кандидатов со знанием ChatGPT: зарплаты – до 120 тыс. грн
Искусственный интеллект полностью автоматизирует 300 млн рабочих мест – Goldman Sachs
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: