Причиной увольнения стало то, что Лемуан нарушил правила компании, раскрыв внутренние данные. В Google также сочли необоснованными его претензии к LaMDA.
«Печально, что, несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать четкие правила работы и безопасности данных, которые включают необходимость защиты информации о продуктах», — прокомментировал представитель Google.
LaMDA (Language Model for Dialogue Applications) — языковой чат-бот, основанный на нейросети Transformer компании Google Research. Он способен вести беседу на «бесконечное количество тем», а также давать конкретные и разумные ответы на сложные реплики.
Компания продолжает тестирование бота, чтобы убедиться, что он следует фактам, не распространяет предубеждения и информацию, которая может ввести в заблуждение, указано в блоге Google.
Лемуан был сотрудником Google Responsible AI, подразделения, которое занимается развитием искусственного интеллекта (ИИ). Он тестировал LaMDA, чтобы проверить, не использует ли ИИ дискриминационные или ненавистнические высказывания. Во время беседы с ботом о религии он заметил, что LaMDA говорит о своих правах, личности и опасениях.
Лемуан собрал аргументы в пользу того, что у бота есть собственное сознание, и передал информацию руководству Google, но те отклонили его доводы, после чего программист решил выступить публично. Его сначала отправили в оплачиваемый отпуск, а потом уволили.
В компании сообщили, что доводы о LaMDA в ходе детального расследования не подтвердились. «Наша команда, включая специалистов по этике и технологиям, изучила опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что LaMDA разумен (и много доказательств против этого)», — сказал представитель Google Брайан Габриэль.