Исследователи ИИ из Microsoft случайно слили на GitHub терабайты конфиденциальных данных
Исследователи искусственного интеллекта Microsoft ошибочно слили в открытый доступ большие объемы данных, включающие пароли и 30 тыс. корпоративных сообщений из Teams.
Об этом сообщил Insider.
Microsoft заявила, что команда пыталась поделиться данными с открытым кодом на платформе разработчиков программного обеспечения GitHub.
Но компания по кибербезопасности Wiz обнаружила, что исследователи случайно предоставили людям доступ к данным объемом 38 терабайт.
Это потому, что репозиторий GitHub попросил загрузить модели ИИ с URL облачного хранилища. Но ссылка была неправильно настроена и предоставляла разрешения для всей учетной записи хранилища.
Wiz обнаружил, что аккаунт содержит резервные копии личных данных с компьютеров сотрудников Microsoft, пароли в службы Microsoft, секретные ключи и более 30 000 внутренних сообщений Teams.
«Никакие данные клиентов не были раскрыты, и никаким другим внутренним службам ничего не угрожает. Никаких действий от клиентов в ответ на эту проблему не нужно», – сообщила компания.
Wiz сообщила об этой проблеме у Microsoft еще в июне, уже через два дня ссылка стала недействительной. Но об этом стало известно только недавно.
«Мы делимся наработками и передовыми практиками, чтобы проинформировать наших клиентов и помочь им избежать подобных инцидентов в будущем», — добавили в компании.
Отметим, что согласно последним данным, около 39% специалистов признались, что имитируют осведомленность в сфере искусственного интеллекта, чтобы казаться умнее и получить уважение среди коллег.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: