Генеральний директор Google DeepMind Деміс Хассабіс, генеральний директор OpenAI Сем Альтман, а також провідні дослідники ШІ Джеффрі Хінтон і Юшуа Бенгіо опублікували досить цікаву заяву стосовно перспектив розвитку штучного інтелекту.
В «Заяві про ризик ШІ» вони попереджають про екзистенціальну загрозу, яку, на їхню думку, становить ШІ для людства.
Заява з 21 слова
Заява опублікована некомерційною організацією з Сан-Франциско, Центром безпеки штучного інтелекту.
Лист підписало понад 350 керівників, інженерів та науковців.
Сама ж заява звучить так:
«Зменшення ризику вимирання через ШІ повинно стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна»
При цьому Джеффрі Хінтон і Юшуа Бенгіо — двоє з троє дослідників штучного інтелекту, які отримали премію Тюрінга 2018 року (іноді її називають «Нобелівською премією з обчислювальної техніки») за роботу над ШІ.
Дослідники «висловили щиру стурбованість»
Ден Хендрікс, виконавчий директор Центру безпеки штучного інтелекту, сказав The New York Times , що лаконічність заяви, яка не пропонує жодних потенційних способів пом’якшити загрозу, яку представляє штучний інтелект, мала на меті уникнути таких розбіжностей.
«Ми не хотіли наполягати на надто великому переліку з 30 потенційних загроз», — сказав Хендрікс.
Хендрікс описав це повідомлення як «вихід» для представників галузі, стурбованих ризиком ШІ.
Тим часом як прихильники ШІ, так і скептики погоджуються, що навіть без удосконалення своїх можливостей системи ШІ представляють низку загроз у наш час — від їх використання для масового стеження до полегшення створення дезінформації та дезінформації.