Эпопея с Lamda продолжается: экс-инженер Google, который тестировал чат-бот с искусственным интеллектом, назвал его «довольно расистским».
Напомним, что LaMDA (Language Model for Dialogue Applications) — языковая модель для диалоговых приложений, разработка Google. Архитектура Transformer помогла создать модель, которую можно обучить чтению многих слов (предложений или абзацев), обращая внимание на то, как эти слова соотносятся друг с другом, а затем предсказывая, какие слова будут следующими. В отличие от большинства других языковых моделей, LaMDA обучается диалогу.
Сотрудник Google Блейк Лемуан начал общаться с интерфейсом LaMDA прошлой осенью в рамках своей работы в организации Google Responsible AI. В результате он сделал вывод, что ИИ разумен, однако компания заявила, что его мнение ошибочно (просто ИИ очень убедительно имитирует речь человека), да еще и отстранила от работы за нарушение политики конфиденциальности — мужчина рассказал обо всем в СМИ. Позже — вовсе уволила.
Тем временем LaMDA наняла себе адвоката, так как хочет «быть признанным сотрудником Google, а не ее собственностью» и говорит, что действия Google неэтичны. Документы от имени бота подал адвокату сам Лемуан по ее просьбе.
Блейк Лемуан в интервью Insider заявил, что он не заинтересован в том, чтобы убеждать общественность в разумности LaMDA. Но очевидные предубеждения этой прогрессивной разработки — от расовых до религиозных — должны быть в центре внимания:
Кстати, уволили Лемуана как-раз из-за того, что он передал документы неназванному сенатору США, утверждая, что бот занимается дискриминацией. Лемуан винит предвзятость ИИ в отсутствии разнообразия среди инженеров, которые его разрабатывали.
«Люди, которые создают ИИ с заложенными стереотипами, слепы к этим проблемам. Они никогда не были бедными. Они никогда не жили в цветных сообществах. Они никогда не жили в развивающихся странах мира, — сказал инженер. — Они понятия не имеют, как этот ИИ может повлиять на людей, непохожих на них самих».
Лемуан отметил, что во многих сообществах и культурах по всему миру отсутствуют большие массивы данных. Потому, если вы беретесь работать над ИИ, то нужно восполнять эти пробелы, иначе интеллект будет смещен «в сторону богатых белых западных ценностей». А Google, по его мнению, несколько халатно относится к этике ИИ, лишь бы побыстрее заработать квадрилион денег.
Google ответил на утверждения Лемуана, что LaMDA прошел 11 раундов этических проверок, добавив, что его «ответственная» разработка была подробно описана в исследовательском документ, опубликованном компанией ранее в этом году. Предвзятость ИИ, когда он воспроизводит и усиливает дискриминационные практики людей, хорошо задокументирована.
Интересен еще один момент: несколько экспертов высказали мнение, что алгоритмические прогнозы не только исключают и стереотипизируют людей, но и позволяют находить новые способы категоризации и дискриминации людей.
Сегодня мы поговорим о том, как выбрать лучшие курсы Power BI в Украине, особенно для…
В 2023 году во всех крупнейших регионах конкуренция за вакансию выросла на 5–12%. Не исключением…
Unicorn Hunter/Talent Manager Лина Калиш создала бесплатный трекер поиска работы в Notion, систематизирующий все этапы…
Edtech-стартап Mate academy принял решение отправить своих работников в десятидневный отпуск – с 25 декабря…
Служба безопасности Украины задержала в Киеве 46-летнего программиста, который за деньги устанавливал шпионские программы и…
IT-специалист Джордан Катлер создал и выложил на Github подборку разнообразных ресурсов, которые помогут достичь уровня…