Рубріки: Новини

Підступна залежність: розробники Samsung злили ChatGPT конфіденційний код

Ігор Шелудченко

Розробники програмного забезпечення Samsung злили конфіденційний код компанії чат-боту зі штучним інтелектом ChatGPT.

Про це розповів PCMAG.

ChatGPT-залежність

Кілька співробітників корейського напівпровідникового бізнесу Samsung вирішили використати ChatGPT для удосконалення свого коду.

Один співробітник скопіював вихідний код з бази даних напівпровідників у чат-бот і попросив ChatGPT знайти помилки.

Інший співробітник зробив те саме для іншого коду, попросивши «оптимізувати код» у ChatGPT.

Після того, як третій співробітник попросив модель штучного інтелекту зробити нотатки, керівництво Samsung вирішило втрутитися.

Корпоративні обмеження

Цікаво, що всього за три тижні до цього Samsung скасувала заборону на використання ChatGPT співробітниками. Але встановила обмеження на використання, яке еквівалентно кілобайту інформації.

Але після цих інцидентів компанія розглядає можливість відновлення заборони, а також застосування дисциплінарних стягнень для співробітників.

«Якщо подібний випадок станеться навіть після вжиття екстрених заходів захисту інформації, доступ до ChatGPT може бути заблокований у мережі компанії», — йдеться у внутрішній записці.

В компанії стверджують, що після того, як контент порапляє в ChatGPT, він стає загальнодоступним.

Посібник користувача OpenAI застерігає користувачів від такої поведінки.

«Ми не можемо видалити певні підказки з вашої історії. Будь ласка, не діліться конфіденційною інформацією у своїх розмовах», — йдеться в ньому.

У посібнику сказано, що система використовує всі надіслані їй дані для власного навчання.

Використання ChatGPT для пошуку та виправлення помилкового коду стало поширеним у розробці програмного забезпечення. Якщо користувачі ставлять питання про кодування, ШІ намагається знайти рішення та надає фрагмент коду в декілька кліків.

Знань програмування ChatGPT навіть може бути достатньо, щоб замінити в IT-компанії інженерів початкового рівня.

Також повідомляється, що Samsung розглядає можливість створення власного ШІ, щоб запобігти таким випадкам у майбутньому.

Microsoft Bing і Google Bard також можуть виявляти помилки в рядках коду, тому заборона ChatGPT не є надійним рішенням.

Нагадаємо, раніше Highload писав про те, що 23-річний хлопець заробив близько $35 000 за 3 місяці, навчаючи новачків ChatGPT.

Читайте також:

Компанії використовують ChatGPT в 66% випадків для написання коду — опитування

ChatGPT і новий ШІ можуть залишити індійських айтівців без роботи — JPMorgan

ChatGPT влаштувався на роботу програмістом Google з зарплатнею $15 тис.

Останні статті

Чип Neural Engine, штучний інтелект, покращена камера: чого чекати від iPhone 16

Презентація Apple, де компанія анонсує нові продукти та розповідає про оновлення айфонів, – завжди очікувана…

13.05.2024

Розробники хочуть створити «Дія. Канали» — альтернативу Telegram та іншим месенджерам

Розробники ГО «Аналітичний центр Інформаційних ресурсів» планують створити альтернативу Telegram та іншим месенджерам — «Дія.…

13.05.2024

Кількість заброньованих айтівців за два місяці збільшилась в півтора рази

В Україні станом на 10 травня трохи менше як 4050 айтівців мають актуальну бронь. Про…

13.05.2024

Brave1 збільшив гранти для оборонних розробок: можна отримати до 2 млн гривень

Кластер Brave1 збільшує гранти для оборонних розробок — тепер можна отримати від 500 тис до…

10.05.2024

Softserve, Luxoft та Infopulse. З’явився рейтинг найбільших платників податків серед IT-компаній

За 2023 рік IT-компанії сплатили сплатили в державний бюджет 20,8 мільярда гривень податків. Це 7,4%…

10.05.2024

«За заслуги перед компанією»: Microsoft розморозить підвищення зарплат співробітникам

Корпорація Microsoft планує відновити підвищення зарплат для найбільш ефективних співробітників. Про це повідомив Insider. Вірогідне…

10.05.2024