Разработчики программного обеспечения Samsung слили конфиденциальный код компании чат-бота с искусственным интеллектом ChatGPT.
Об этом рассказал PCMAG.
Несколько сотрудников корейского полупроводникового бизнеса Samsung решили использовать ChatGPT для усовершенствования своего кода.
Один сотрудник скопировал исходный код из базы данных полупроводников в чат-бот и попросил ChatGPT найти ошибки.
Другой сотрудник сделал то же самое для другого кода, попросив оптимизировать код в ChatGPT.
После того как третий сотрудник попросил модель искусственного интеллекта сделать заметки, руководство Samsung решило вмешаться.
Интересно, что всего за три недели до этого Samsung упразднила запрет на использование ChatGPT сотрудниками. Но установила ограничение на использование, которое эквивалентно килобайту информации.
Но после этих инцидентов компания рассматривает возможность возобновления запрета, а также применения дисциплинарных взысканий для сотрудников.
«Если подобный случай произойдет даже после принятия экстренных мер защиты информации, доступ к ChatGPT может быть заблокирован в сети компании», — говорится во внутренней записке.
В компании утверждают, что после того, как контент попадает в ChatGPT, он становится общедоступным.
Руководство пользователя OpenAI предостерегает пользователей от такого поведения.
«Мы не можем удалить определенные подсказки из вашей истории. Пожалуйста, не делитесь конфиденциальной информацией в своих разговорах», — говорится в нем.
В руководстве сказано, что система использует все отправленные ей данные для собственного обучения.
Использование ChatGPT для поиска и исправления ошибочного кода стало распространенным в разработке программного обеспечения. Если пользователи задают вопрос о кодировании, ИИ пытается найти решение и предоставляет фрагмент кода в несколько кликов.
Знаний программирования ChatGPT может быть даже достаточно, чтобы заменить в IT-компании инженеров начального уровня.
Также сообщается, что Samsung рассматривает возможность создания собственного ИИ, чтобы предотвратить такие случаи в будущем.
Microsoft Bing и Google Bard также могут обнаруживать ошибки в строках кода, поэтому запрет ChatGPT не является надежным решением.
Напомним, ранее Highload писал о том, что 23-летний парень заработал около $35 000 за 3 месяца, обучая новичков ChatGPT.
Читайте также:
Компании используют ChatGPT в 66% случаев для написания кода – опрос
ChatGPT и новый ИИ могут оставить индийских айтовцев без работы – JPMorgan
ChatGPT устроился на работу программистом Google с зарплатой в $15 тыс.
Сегодня мы поговорим о том, как выбрать лучшие курсы Power BI в Украине, особенно для…
В 2023 году во всех крупнейших регионах конкуренция за вакансию выросла на 5–12%. Не исключением…
Unicorn Hunter/Talent Manager Лина Калиш создала бесплатный трекер поиска работы в Notion, систематизирующий все этапы…
Edtech-стартап Mate academy принял решение отправить своих работников в десятидневный отпуск – с 25 декабря…
Служба безопасности Украины задержала в Киеве 46-летнего программиста, который за деньги устанавливал шпионские программы и…
IT-специалист Джордан Катлер создал и выложил на Github подборку разнообразных ресурсов, которые помогут достичь уровня…