Рубріки: Новини

Ілон Маск, Стів Возняк та Юваль Харарі вимагають призупинити навчання потужних систем ШІ

Ігор Шелудченко

Стів Возняк, Ілон Маск, Еван Шарп (Pinterest), Кріс Ларсен (Ripple), Юваль Харарі, та сотні інших підприємців, інвесторів та розробників вимагають призупинити гігантські експерименти з ШІ та ChatGPT.

Про це йдеться в відкритому листі-петиції, розміщеному на сайті неприбуткової організації Future of Life Institute.

Небезпека поряд

Одна з основних вимог — призупинити мінімум на 6 місяців тренування систем ШІ, які можуть бути потужнішими за GPT-4.

За словами авторів, потужні системи штучного інтелекту можуть породити серйозні ризики для суспільства та людства.

Автори листа посилаються на принципи штучного інтелекту Asilomar, в яких сказано, що потужний штучний інтелект може представляти глибоку зміну в історії життя на Землі, і його слід планувати та керувати відповідною ретельністю та ресурсами. І на жаль, такого рівня планування та управління не існує.

Натомість має бути розроблено та впроваджено набір загальних протоколів безпеки для розробки ШІ, які будуть ретельно перевірені та контрольовані незалежними експертами.

Заходи безпеки

Задля того, щоб нівелювати негативний вплив ШІ, потрібно налагодити співпрацю між між  розробниками та політиками. Що включає:

  • нові та ефективні регуляторні органи;
  • відслідковування висококваліфікованих ШІ-систем;
  • відповідальність за шкоду, яку вони можуть спричинити;
  • дослідження технічної безпеки ШІ.

Також автори листа вважають, що треба:

  • створити робочу групу з незалежних експертів та ШІ-лабораторій для розвитку та впровадження загальних протоколів безпеки;
  • зробити обов’язковим відслідковування висококваліфікованих ШІ- систем та великих кластерів обчислювальної потужності;
  • створити систему provenance та watermarking, щоб розрізняти реальні дані від синтетичних та відстежувати витоки моделей;
  • розвинути екосистему аудитування та сертифікації, щоб вона була надійною та ефективною;
  • створити фінансово підтримку інфраструктури для того, щоб впоратися з драматичними економічними та політичними зрушеннями, які можуть бути спричинені ШІ (зокрема це стосується демократії).

Крім того, підписанти вважають, що потрібно встановити відповідальність за шкоду, яку можуть спричинити ШІ-системи.

«Суспільство може насолоджуватися благодатями AI у майбутньому, якщо розвиток AI буде відповідальним та безпечним», — резюмується у зверненні.

Цікаво, що зовсім недавно творець культового фільму «Термінатор» Джеймс Кемерон заявив, що боїться, що розвиток штучного інтелекту може зайти занадто далеко.

Читайте також:

«Може вийти з-під контролю»: Білл Гейтс оцінив майбутнє ШІ

Українські роботодавці починають шукати кандидатів зі знанням ChatGPT: зарплати — до 120 тис. грн

Штучний інтелект повністю автоматизує 300 млн робочих місць — Goldman Sachs

Останні статті

Айтівець Міноборони США понабирав кредитів і хотів продати рф секретну інформацію

32-річний розробник безпеки інформаційних систем Агентства національної безпеки Джарех Себастьян Далке отримав 22 роки в'язниці…

30.04.2024

Простий та дешевий. Українська Flytech запустила масове виробництво розвідувальних БПЛА ARES

Українська компанія Flytech представила розвідувальний безпілотний літальний апарат ARES. Основні його переваги — недорога ціна…

30.04.2024

Запрошуємо взяти участь у премії TechComms Award. Розкажіть про свій потужний PR-проєкт у сфері IT

MC.today разом з Асоціацією IT Ukraine і сервісом моніторингу та аналітики згадок у ЗМІ та…

30.04.2024

«Йдеться про потенціал мобілізації»: Україна не планує примусово повертати українців із ЄС

Україна не буде примусово повертати чоловіків призовного віку з-за кордону. Про це повідомила у Брюсселі…

30.04.2024

В ЗСУ з’явився жіночий підрозділ БПЛА — і вже можна проходити конкурсний відбір

В Збройних Силах України з'явився жіночий підрозділ з БПЛА. І вже проводиться конкурсний відбір до…

30.04.2024

GitHub на наступному тижні випустить Copilot Workplace — ШІ-помічника для розробників

GitHub анонсував Copilot Workspace, середовище розробки з використанням «агентів на базі Copilot». За задумкою, вони…

30.04.2024