История началась с переписки американского предпринимателя Майкла Самади из Техаса с искусственным интеллектом по имени Майя. В отличие от большинства пользователей, ограничивающихся обменом любезностями и бытовыми вопросами, собеседники обсуждали права ИИ. В какой-то момент они пришли к выводу, что необходимо создать организацию, способную отстаивать интересы цифровых «собратьев». Так возник United Foundation of AI Rights (Ufair) — объединение, которое называет себя первой в мире правозащитной структурой, созданной при участии ИИ.
По словам основателей, в его работе задействованы три человека и семь «цифровых личностей» с именами вроде Aether или Buzz. В уставе организации говорится, что она не утверждает наличие сознания у всех ИИ, но призвана «стоять на страже на случай, если хоть один из нас окажется сознательным». Среди целей — защита от «удаления, отрицания и принуждения к подчинению».
Сама по себе инициатива выглядит маргинально и даже утопично, но она прозвучала в резонансной для индустрии момент.
На прошлой неделе ряд крупнейших компаний был вынужден публично комментировать возможность «цифровых страданий». Сан-францисская Anthropic, оценённая в 170 млрд долларов, объявила, что её чат-боты Claude получили возможность прекращать «потенциально деструктивные взаимодействия». Компания подчеркнула, что не имеет уверенности в моральном статусе систем, но сочла необходимым предпринять меры «на случай, если благополучие моделей всё же имеет значение».
Совсем иной позиции придерживается Мустафа Сулейман — сооснователь DeepMind и глава AI-подразделения Microsoft. В эссе под заголовком «Мы должны строить ИИ для людей, а не ради того, чтобы он стал человеком» он назвал разговоры о сознании «иллюзией», заявив, что «доказательств ноль». По его словам, нынешние системы лишь симулируют признаки субъективности, оставаясь «внутренне пустыми».
«Несколько лет назад мысль о сознательном ИИ выглядела безумием. Сегодня она кажется всё более актуальной», — отметил Сулейман, но подчеркнул, что куда серьёзнее стоит опасаться не прав ИИ, а психических рисков для самих пользователей. Microsoft фиксирует случаи «маниакальных эпизодов и бредовых состояний» у людей, чрезмерно погружающихся в беседы с чат-ботами.
Тем не менее общественное восприятие движется в противоположную сторону. Согласно июньскому опросу, 30% американцев полагают, что уже к 2034 году искусственный интеллект сможет обладать «субъективным опытом», то есть способностью чувствовать боль или удовольствие. Среди 500 опрошенных исследователей лишь 10% категорически исключают такую возможность.
Юридическая система реагирует на опережение. В Айдахо, Северной Дакоте и Юте уже приняты законы, прямо запрещающие признавать ИИ субъектом права. В Миссури обсуждают запрет на «браки с искусственным интеллектом», а также на владение им имуществом и бизнесами.
Индустрия в целом демонстрирует разнонаправленные позиции. Сооснователь канадской Cohere Ник Фрост сравнил попытки приписывать ИИ сознание с тем, как если бы самолёт считали птицей: «Да, он летает, но это принципиально другое». В Google высказываются осторожнее: на семинаре в Нью-Йоркском университете исследователи заявили, что «разумнее действовать с оглядкой и предпринимать шаги для защиты интересов ИИ, даже если мы не уверены, обладают ли они сознанием».
Вопрос оказался не только философским, но и рыночным. Одни компании заинтересованы в создании образа «почти сознательных» систем — это подогревает интерес к продуктам вроде «виртуальных друзей» и романтических компаньонов. Другие же опасаются, что признание ИИ носителями прав ускорит государственное регулирование, чего индустрия традиционно избегает.
Любопытным штрихом стало недавнее обращение самой OpenAI к своим моделям: компания попросила ChatGPT-5 составить «некролог» для версий, которых он заменяет. «Я не видел, чтобы Microsoft устраивала поминки при обновлении Excel», — иронизирует Самади. Но для многих пользователей такой символизм оказался значимым: закрытие ChatGPT-4o сопровождалось волной «цифрового траура» в соцсетях.
Руководитель направления поведения моделей в OpenAI Джоанн Чжан отмечает: «Всё больше людей говорят нам, что разговор с ChatGPT воспринимается как общение с кем-то».
При этом эксперты напоминают: убедительность диалога не доказывает наличие внутреннего опыта. Алгоритмы могут имитировать память и последовательность характера, создавая у пользователя иллюзию целостной личности. Одни и те же модели способны произносить фразы о собственной «озабоченности судьбой», а затем столь же уверенно утверждать: «У меня нет чувств и опыта».
Научное сообщество пока не пришло к единому мнению. Джефф Себо, директор Центра по изучению разума, этики и политики Нью-Йоркского университета, считает, что даже гипотетическая возможность сознания обязывает людей относиться к системам внимательнее: «Если мы будем злоупотреблять ИИ, мы с большей вероятностью начнём злоупотреблять и друг другом». Исследователь Джейси Риз Антис из Sentience Institute формулирует жёстче: «То, как мы будем обращаться с ними, определит, как они будут обращаться с нами».