А рекламировали «повышение производительности»: Google призывает своих айтишников отказаться от Bard
Об этом рассказал The Register.
Компания считает, что это оградит сотрудников от разглашения конфиденциальной информации.
Тенденции конфиденциальности
Данный шаг, с одной стороны, не вызывает удивления: раньше достаточно много компаний сделали аналогичные заявления. Некоторые советуют пользователям не включать конфиденциальную информацию в разговоры с чат-ботами, а некоторые вовсе запретили их использование.
Так, например Apple месяц назад запретил использовать ChatGPT, поскольку компания разрабатывает собственную аналогичную технологию.
Парадокс
Однако такое предостережение Google вызывает беспокойство. По сути это означает, что инструментам искусственного интеллекта нельзя доверять, особенно если сами создатели не используют их из-за рисков конфиденциальности и безопасности.
Это заявление несколько опровергает утверждение Google, что его чат-бот может помочь разработчикам повысить производительность.
Позже в компании сообщили, что запрет был введен из-за того, что Bard может выводить «нежелательные предложения кода».
И потенциально эти проблемы могут привести к багам, на исправление которого разработчикам понадобится больше времени, чем если бы они вообще не использовали ИИ для кодирования.
Напомним, около недели назад компания Google предоставила своему чат-боту Bard технику «скрытого исполнения кода», усовершенствовав решение математических и логических задач.
До этого Google добавила в чат-бот Bard возможность генерировать и отлаживать исходный код на 20 языках программирования, среди которых есть C++, Java Javascript, Python и Typescript.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: