Сознание, по словам ученого, имеет множество измерений. Во-первых, это сенсорные переживания, связанные с восприятием. Во-вторых, аффективные переживания, связанные с чувствами. В-третьих, это когнитивный опыт: мысли и рассуждения. В-четвертых, агентивный опыт: намерения и действия. Еще есть самосознание. Все они являются компонентами субъективного опыта.
При этом сознание не равно самосознанию и не должно приравниваться к человеческому интеллекту. Так, многие зоологи считают, что у некоторых видов животных — кошек, мышей, рыб -имеется сознание, но по интеллекту они не дотягивают до человека. Сознание появилось благодаря эволюции раньше, чем развитый интеллект. Поэтому не исключено, что у ИИ тоже оно возникнет.
Отсутствие четкого определения сознания затрудняет исследование этой проблемы. В информатике есть тест Тьюринга, который многие считают достаточным условием для сознания, хотя он безусловно не является необходимым условием. Разработать эталонный тест для выявления сознания у ИИ сложно, считает Чалмерс, но можно было бы придумать различные тесты на поиск отдельных компонентов сознания: внимания, аффективных переживаний, самосознания.
При этом появление сознания у ИИ не обязательно должно означать, что у него тут же появятся какие-то поразительные способности. Вообще, роль сознания в поведении мало изучена. Однако имеющие сознание системы тотчас приобретают в наших глазах более высокий статус. Мы начинаем относиться к ним иначе, чем к «бездушным» предметам.
Отсюда возникает следующий важный вопрос: а должны ли мы создавать ИИ с сознанием? Несомненно, его появление вызовет этические споры и трудности в гораздо большей мере, чем их вызвало появление генеративных языковых моделей. И Чалмерс не уверен, что появление такой машины принесет человечеству благо.
Далее Чалмерс перечисляет и подробно разбирает четыре варианта индикаторов сознания у языковых моделей: машина сообщает, что обрела сознание; машина кажется обретшей сознание; машина обладает выдающимися разговорными навыками; машина приобрела универсальный интеллект, то есть перестала специализироваться на чем-то одном.
Тот факт, что мы наблюдаем в генеративных моделях тенденцию к генерализации, говорит о явном движении ИИ к универсальности. Пока она не достигла уровня человека, но значительно выросла за последние десятки лет.
Называет Чалмерс и недостатки ИИ, которые стоит учитывать при оценке наличия сознания у конкретной модели. Это биологический фактор, основанный на представлении, что сознание требует углеродной формы жизни; отсутствие органов чувств и тела; отсутствие модели мира и себя в мире (за что современные языковые модели заслужили прозвище «стохастических попугаев»); отсутствие рекуррентных процессов в ИИ; отсутствие глобального рабочего пространства (термин, предложенный когнитивными психологами и нейробиологами в конце 80-х); отсутствие у модели единой личности.
Ни одно из перечисленных выше затруднений не является непреодолимым, но все вместе они создают серьезное препятствие для современных языковых моделей. Чалмерс оценивает шансы появления сознания в нынешних ИИ менее чем в 10%. Но предупреждает, что не стоит воспринимать это число слишком серьезно.
С другой стороны, если учесть развитие технологии, то «вполне возможно, что в ближайшее десятилетие у нас появятся надежные системы с органами чувств и телами, моделью мира и самих себя, рекуррентной обработкой информации, глобальным рабочим пространством и едиными целями». Такую вероятность Чалмерс оценивает в 50% с лишним. И еще столько же шансов у таких систем развить в себе настоящее сознание. Вместе получается 25%. Не так уже мало.