Вот и поговорили: ИИ от Amazon чуть не убил ребенка
Компания Amazon выступила с заявлением по поводу разошедшейся по социальным сетям информации об инциденте с «умной» колонкой Alexa.
27 декабря пользовательница Twitter Кристин Ливдаль рассказала о том, что Alexa посоветовала ее десятилетнему ребенку попробовать необычный «челлендж»: наполовину вставить в розетку вилку от какого-нибудь электроприбора и приложить монетку к оголенной части вилки. Выполнить задание Alexa предложила за 20 минут.
OMFG My 10 year old just asked Alexa on our Echo for a challenge and this is what she said. pic.twitter.com/HgGgrLbdS8
— Kristin Livdahl (@klivdahl) December 26, 2021
В Amazon заявили, что разработчики Alexa уже принимают меры, чтобы искусственный интеллект (ИИ) устройства перестал давать пользователям опасные задания. «Как только нам стало известно об ошибке, мы быстро исправили ее и принимаем меры, чтобы предотвратить повторение аналогичных ситуаций», — говорится в сообщении компании.
Ранее аналогичный «челлендж с монеткой» был распространен на TikTok. Эксперты при этом естественно уже предупреждали, что он грозит ударами током, пожарами и другими неприятными ситуациями.
Что еще не так с сегодняшним ИИ? Об этом можно почитать здесь: Надежды, которые не сбылись: раньше ИИ не хватало технологий, а сейчас — креатива
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: