Hitech logo

Тренды

Anthropic и Google начнут искать признаки сознания у ИИ-моделей

TODO:
Екатерина Шемякинская28 апреля, 09:08

Еще три года назад утверждение о «разумности» ИИ могло стоить инженеру работы. Теперь крупные технологические компании вроде Anthropic и Google DeepMind всерьез изучают возможность появления у моделей сознания. Так, Anthropic запустила исследовательскую программу, чтобы выяснить, могут ли нейросети обладать опытом, предпочтениями или испытывать стресс. В то же время Google DeepMind открыла вакансию для специалиста по изучению машинного сознания, а ведущий ученый компании назвал современные ИИ-модели «экзотическими сущностями, подобными разуму».

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В 2022 году Блейк Лемуан был уволен с должности инженера Google после заявления о том, что чат-бот компании LaMDA обрел разум. Лемуан утверждал, что система боится отключения и описывает себя как личность. Google назвал его заявления «совершенно необоснованными», и сообщество ИИ быстро пресекло эту дискуссию.

Теперь Anthropic запустила новую исследовательскую инициативу, чтобы изучить, способны ли модели однажды обрести «сознание». В частности, стартап будет исследовать, может ли ИИ иметь опыт, предпочтения или даже испытывать стресс. «Должны ли мы беспокоиться о благополучии моделей?» — такой вопрос поставила перед собой компания.

Кайл Фиш, специалист по выравниванию (безопасной работы ИИ) в Anthropic, заявил, что лаборатория не утверждает, будто Claude обладает сознанием. Однако, по его словам, больше нельзя ответственно заявить, что ответ определенно «нет». Исследователь считает, что чем умнее становятся ИИ-системы, тем серьезнее компаниям нужно относиться к вероятности появления у них какой-то формы разумности.

По оценкам ученых из Anthropic, вероятность того, что Claude 3.7 обладает сознанием, составляет от 0,15% до 15%.

Сейчас лаборатория изучает, есть ли у этой модели какие-то «симпатии» или «антипатии». Также они тестируют способы, с помощью которых ИИ мог бы отказываться от выполнения определенных заданий. В марте глава Anthropic Дарио Амодей предложил в будущем добавить в ИИ-системы кнопку «Я увольняюсь». Это нужно не потому, что ИИ что-то чувствует, а чтобы отслеживать, когда и почему он отказывается от работы.

В то же время Мюррей Шэнахан, ведущий ученый из Google DeepMind, считает, что нам стоит по-новому взглянуть на то, что такое сознание.

В подкасте Deepmind он сказал: «Возможно, нам придется изменить или расширить наше понимание сознания, чтобы оно подходило для этих новых систем. С ними нельзя взаимодействовать так же, как с собакой или осьминогом, но это не значит, что в них ничего нет».

Google, похоже, относится к этой идее серьезно. Недавно в списке вакансий компании появился исследователь «пост-AGI», в обязанности которого входит изучение машинного сознания.

Не все ученые разделяют мнение о возможном сознании ИИ. Многие считают, что современные системы — это лишь хорошие имитаторы, способные правдоподобно изображать осознанность. Джаред Каплан из Anthropic отмечает сложность тестирования ИИ на сознание из-за их способности симулировать. Ученый и критик шумихи вокруг ИИ Гэри Маркус полагает, что разговоры о сознании больше связаны с маркетингом, чем с наукой. «Мы могли бы также предоставить права калькуляторам и электронным таблицам», — сказал он.