Hitech logo

Кейсы

OpenAI финансирует разработку ИИ с «нравственным компасом»

TODO:
Екатерина СмирноваВчера, 02:02 PM

OpenAI предоставила грант исследованию алгоритмов, способных предсказывать моральные суждения людей. Проект с бюджетом $1 млн продлится три года. За это время исследователи изучат, может ли искусственный интеллект оценивать ситуации в медицине, праве и бизнесе с точки зрения морали. Однако задача создания «морального ИИ» сталкивается с огромными трудностями, поскольку понятие морали субъективно и спорно — философы уже тысячи лет пытаются найти универсальные ответы на эти вопросы. Проблему усугубляет то, что современные ИИ-модели обучаются на ограниченных и несбалансированных данных, не учитывая многообразие взглядов и подходов к этике.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В поданном в Налоговую службу США отчете OpenAI указала на предоставление гранта исследователям из Университета Дьюка для реализации проекта, посвященного изучению моральных аспектов искусственного интеллекта. Грант является частью более масштабного трехлетнего проекта с общим бюджетом в $1 млн, направленного на исследование проблем «создания морального ИИ».

Подробностей о проекте OpenAI пока мало. Известно лишь, что он завершится в 2025 году. Руководитель исследования, профессор Уолтер Синнотт-Армстронг, отказался от комментариев. Ранее Синнотт-Армстронг и его соавтор, Яна Борг, опубликовали исследования и книгу, посвященные потенциалу искусственного интеллекта в роли «морального компаса», способного содействовать принятию более взвешенных решений людьми. Они разработали «морально выверенный» алгоритм для распределения донорских органов и изучали сценарии, в которых люди предпочли бы делегировать принятие моральных решений ИИ.

Целью проекта OpenAI является создание алгоритмов, способных предсказывать, как люди будут оценивать с моральной точки зрения различные ситуации в медицине, праве и бизнесе.

Создание искусственного интеллекта, который может принимать моральные решения, остается сложной задачей. В 2021 году некоммерческий Институт искусственного интеллекта Аллена создал инструмент под названием Ask Delphi для предоставления этически обоснованных рекомендаций. Модель справлялась с оценкой простых моральных дилемм. Например, понимала, что списывание на экзамене — это неправильно. Однако при незначительном изменении вопросов система выдавала парадоксальные результаты, одобряя такие действия, как убийство младенцев.

Причина кроется в принципах функционирования современных систем искусственного интеллекта. Модели машинного обучения представляют собой статистические системы, которые, обучаясь на огромных массивах данных из интернета, выявляют закономерности и используют их для прогнозирования. ИИ не способен понимать этические концепции, а также учитывать рассуждения и эмоции, которые лежат в основе моральных решений. В результате искусственный интеллект часто воспроизводит ценности западных, образованных и индустриализированных стран, поскольку интернет, а следовательно, и данные для обучения ИИ, преимущественно состоят из материалов, отражающих эти точки зрения. Взгляды многих людей не учитываются в ответах ИИ, особенно если они не создают онлайн-контент, который попадает в обучающие наборы данных.

Задача создать «моральный ИИ» осложняется тем, что само понятие морали субъективно и неоднозначно. Философы спорят об этике тысячелетиями, и единого ответа нет. Чат-бот Claude придерживается кантианской этики, акцентируя внимание на абсолютных моральных принципах, в то время как ChatGPT демонстрирует склонность к утилитаризму, отдавая приоритет максимальному общему благу. Какой из этих подходов предпочтительнее? Зависит от индивидуальных взглядов. Алгоритм, способный предсказывать моральные суждения человека, должен учитывать все эти нюансы. Это крайне сложная, а то и вовсе невыполнимая задача.