Поддерживая идею о том, что ИИ однажды может обрести сознание, исследователи лишь усугубляют вред, который наносят людям психотические расстройства, вызванные технологией ИИ и нездоровой привязанностью к чат-ботам, считает Сулейман. Эти проблемы мы только начинаем наблюдать вокруг, но их становится всё больше.
Более того, руководитель отдела ИИ Microsoft утверждает, что обсуждение вопросов благополучия ИИ создает новый раскол в обществе по поводу прав ИИ в «мире, уже бурлящем поляризованными спорами об идентичности и правах».
Взгляд Сулеймана расходится с мнением многих других представителей отрасли, пишет TechCrunch. На другом конце спектра находится компания Anthropic, которая нанимает исследователей для изучения благополучия ИИ и недавно запустила специальную исследовательскую программу, посвященную концепции благополучия ИИ. На прошлой неделе Anthropic дала некоторым моделям компании новую функцию: теперь чат-бот «Клод» может завершать разговоры с людьми, которые ведут себя неприятно и оскорбительно.
Помимо Anthropic, изучением благополучия ИИ занимаются в OpenAI. А Google DeepMind недавно опубликовала вакансию для исследователя, который будет изучать, среди прочего, «передовые социальные вопросы, связанные с машинным восприятием, сознанием и многоагентными системами». Даже если благополучие ИИ не является официальной политикой этих компаний, их руководители, в отличие от Сулеймана, публично не осуждают эти принципы.
Идея благополучия ИИ получила распространение вместе с появлением чат-ботов. В 2024 году исследовательская группа Eleos совместно с учеными из Нью-Йоркского, Стэнфордского и Оксфордского университетов опубликовала статью под названием «Серьезное отношение к благополучию ИИ» (Taking AI Welfare Seriously). В статье утверждалось, что представление о наличии у моделей ИИ субъективного опыта уже не является чем-то из области научной фантастики, и что пришло время внимательно изучить этот вопрос.
Тем мне менее, Сулейман полагает, что на субъективные переживания современные модели ИИ не способны. А то, что иногда выдают за проявления осознанности у машин, всего ли специально заложенные алгоритмы, призванные имитировать человеческие чувства, чтобы чат-бот внушал пользователям больше доверия.
Сложно ответить на вопрос о гипотетическом наличии сознания у машин, если мы не можем понять, что есть сознание вообще. Недавно журнал Nature опубликовал результаты «конкурентного сотрудничества» группы Cogitate Consortium, сравнивавших две популярных теории природы сознания на сегодняшний день — теорию глобального рабочего пространства и теорию интегрированной информации. Оказалось, что ни одна из них не проходит непредвзятой проверки.