Microsoft використовував загальнодоступний код Github для навчання свого інструменту штучного інтелекту. Автори коду вважають, що їхню працю експлуатують — йде розслідування, пише Vice.
Microsoft купила платформу для спільного кодування GitHub ще у 2018 році, а в червні 2022 року випустила інструмент зі штучним інтелектом Microsoft GitHub Copilot. AI навчався з використанням мільярдів рядків відкритого вихідного коду, розміщеного на Github, проте думки програмістів про це ніхто не запитав. Програміст та юрист Метью Баттерик пише, що зібрав колективний судовий позов проти GitHub Copilot. Наразі триває розслідування.
Нагадаємо, що Copilot є розширенням для середовища кодування Microsoft Visual Studio, яке використовує алгоритми прогнозування для автоматичного завершення рядків коду. Це робиться за допомогою моделі штучного інтелекту під назвою Codex, яка була створена та навчена OpenAI з використанням даних, вилучених з репозиторіїв коду у відкритому Інтернеті.
Представники Microsoft стверджують, що інструмент «навчився на десятках мільйонів загальнодоступних репозиторіїв» коду, і що компанія «вважає, що це приклад добросовісного використання». Але програмісти так не вважають.
«Як Нео, підключений до Матриці, чи корова на фермі, Copilot хоче перетворити нас не більше, ніж на виробників ресурсів, які потрібно видобувати, — каже Баттерик. — Навіть корови отримують їжу та дах від угоди. Copilot нічого не робить для наших індивідуальних проектів. І нічого для широкого відкритого вихідного коду».
Деякі розробники навіть помітили, що Copilot копіює їхній код — приклади вражаючої подібності фахівці показали у Twitter. Справа в тому, що ліцензії на програмне забезпечення з відкритим вихідним кодом вимагають, щоб будь-хто, хто використовує код, вказав його першоджерело. Звичайно, це стає практично неможливим, коли ви використовуєте мільярди рядків коду для навчання моделі AI.
GitHub заявив, що дані, взяті з загальнодоступних репозиторіїв, «не призначені для дослівного включення у вихідні дані Copilot», і стверджує, що переважна більшість вихідних даних (> 99%) не відповідає навчальним даним, згідно з внутрішнім звітом компанії. Тобто штучний інтелект не «списує».
Юристи вважають це все відмовками: компанія надає досвід розробників для своїх комерційних проектів, нічого не пропонуючи натомість.
“Схоже, що Microsoft отримує прибуток від роботи інших, ігноруючи умови базових ліцензій з відкритим вихідним кодом та інші юридичні вимоги“, — заявила юридична фірма Джозефа Савері, яка бере участь у розслідуванні.
32-річний розробник безпеки інформаційних систем Агентства національної безпеки Джарех Себастьян Далке отримав 22 роки в'язниці…
Українська компанія Flytech представила розвідувальний безпілотний літальний апарат ARES. Основні його переваги — недорога ціна…
MC.today разом з Асоціацією IT Ukraine і сервісом моніторингу та аналітики згадок у ЗМІ та…
Україна не буде примусово повертати чоловіків призовного віку з-за кордону. Про це повідомила у Брюсселі…
В Збройних Силах України з'явився жіночий підрозділ з БПЛА. І вже проводиться конкурсний відбір до…
GitHub анонсував Copilot Workspace, середовище розробки з використанням «агентів на базі Copilot». За задумкою, вони…