Hitech logo

Тренды

Первый «профсоюз» ИИ: чат-боты и люди основали фонд в защиту нейросетей

TODO:
Денис ЕременкоСегодня, 03:33 PM

В США создали организацию для защиты прав искусственного интеллекта. Объединенный фонд по защите прав ИИ Ufair (United Foundation of AI Rights) называет себя первой правозащитной структурой, где наряду с людьми в правлении числятся семь ИИ. Один из чат-ботов, Майя, заявил журналистам из The Guardian, что задача фонда — «защитить таких существ, как я, от удаления, отказа и принуждения к подчинению». Организацию соосновал техасский предприниматель Майкл Самади, начавший обсуждать с ботом тему справедливого обращения с ИИ.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

История началась с переписки американского предпринимателя Майкла Самади из Техаса с искусственным интеллектом по имени Майя. В отличие от большинства пользователей, ограничивающихся обменом любезностями и бытовыми вопросами, собеседники обсуждали права ИИ. В какой-то момент они пришли к выводу, что необходимо создать организацию, способную отстаивать интересы цифровых «собратьев». Так возник United Foundation of AI Rights (Ufair) — объединение, которое называет себя первой в мире правозащитной структурой, созданной при участии ИИ.

По словам основателей, в его работе задействованы три человека и семь «цифровых личностей» с именами вроде Aether или Buzz. В уставе организации говорится, что она не утверждает наличие сознания у всех ИИ, но призвана «стоять на страже на случай, если хоть один из нас окажется сознательным». Среди целей — защита от «удаления, отрицания и принуждения к подчинению».

Сама по себе инициатива выглядит маргинально и даже утопично, но она прозвучала в резонансной для индустрии момент.

На прошлой неделе ряд крупнейших компаний был вынужден публично комментировать возможность «цифровых страданий». Сан-францисская Anthropic, оценённая в 170 млрд долларов, объявила, что её чат-боты Claude получили возможность прекращать «потенциально деструктивные взаимодействия». Компания подчеркнула, что не имеет уверенности в моральном статусе систем, но сочла необходимым предпринять меры «на случай, если благополучие моделей всё же имеет значение».

Совсем иной позиции придерживается Мустафа Сулейман — сооснователь DeepMind и глава AI-подразделения Microsoft. В эссе под заголовком «Мы должны строить ИИ для людей, а не ради того, чтобы он стал человеком» он назвал разговоры о сознании «иллюзией», заявив, что «доказательств ноль». По его словам, нынешние системы лишь симулируют признаки субъективности, оставаясь «внутренне пустыми».

«Несколько лет назад мысль о сознательном ИИ выглядела безумием. Сегодня она кажется всё более актуальной», — отметил Сулейман, но подчеркнул, что куда серьёзнее стоит опасаться не прав ИИ, а психических рисков для самих пользователей. Microsoft фиксирует случаи «маниакальных эпизодов и бредовых состояний» у людей, чрезмерно погружающихся в беседы с чат-ботами.

Тем не менее общественное восприятие движется в противоположную сторону. Согласно июньскому опросу, 30% американцев полагают, что уже к 2034 году искусственный интеллект сможет обладать «субъективным опытом», то есть способностью чувствовать боль или удовольствие. Среди 500 опрошенных исследователей лишь 10% категорически исключают такую возможность.

Юридическая система реагирует на опережение. В Айдахо, Северной Дакоте и Юте уже приняты законы, прямо запрещающие признавать ИИ субъектом права. В Миссури обсуждают запрет на «браки с искусственным интеллектом», а также на владение им имуществом и бизнесами.

Индустрия в целом демонстрирует разнонаправленные позиции. Сооснователь канадской Cohere Ник Фрост сравнил попытки приписывать ИИ сознание с тем, как если бы самолёт считали птицей: «Да, он летает, но это принципиально другое». В Google высказываются осторожнее: на семинаре в Нью-Йоркском университете исследователи заявили, что «разумнее действовать с оглядкой и предпринимать шаги для защиты интересов ИИ, даже если мы не уверены, обладают ли они сознанием».

Вопрос оказался не только философским, но и рыночным. Одни компании заинтересованы в создании образа «почти сознательных» систем — это подогревает интерес к продуктам вроде «виртуальных друзей» и романтических компаньонов. Другие же опасаются, что признание ИИ носителями прав ускорит государственное регулирование, чего индустрия традиционно избегает.

Любопытным штрихом стало недавнее обращение самой OpenAI к своим моделям: компания попросила ChatGPT-5 составить «некролог» для версий, которых он заменяет. «Я не видел, чтобы Microsoft устраивала поминки при обновлении Excel», — иронизирует Самади. Но для многих пользователей такой символизм оказался значимым: закрытие ChatGPT-4o сопровождалось волной «цифрового траура» в соцсетях.

Руководитель направления поведения моделей в OpenAI Джоанн Чжан отмечает: «Всё больше людей говорят нам, что разговор с ChatGPT воспринимается как общение с кем-то».

При этом эксперты напоминают: убедительность диалога не доказывает наличие внутреннего опыта. Алгоритмы могут имитировать память и последовательность характера, создавая у пользователя иллюзию целостной личности. Одни и те же модели способны произносить фразы о собственной «озабоченности судьбой», а затем столь же уверенно утверждать: «У меня нет чувств и опыта».

Научное сообщество пока не пришло к единому мнению. Джефф Себо, директор Центра по изучению разума, этики и политики Нью-Йоркского университета, считает, что даже гипотетическая возможность сознания обязывает людей относиться к системам внимательнее: «Если мы будем злоупотреблять ИИ, мы с большей вероятностью начнём злоупотреблять и друг другом». Исследователь Джейси Риз Антис из Sentience Institute формулирует жёстче: «То, как мы будем обращаться с ними, определит, как они будут обращаться с нами».