В поданном в Налоговую службу США отчете OpenAI указала на предоставление гранта исследователям из Университета Дьюка для реализации проекта, посвященного изучению моральных аспектов искусственного интеллекта. Грант является частью более масштабного трехлетнего проекта с общим бюджетом в $1 млн, направленного на исследование проблем «создания морального ИИ».
Подробностей о проекте OpenAI пока мало. Известно лишь, что он завершится в 2025 году. Руководитель исследования, профессор Уолтер Синнотт-Армстронг, отказался от комментариев. Ранее Синнотт-Армстронг и его соавтор, Яна Борг, опубликовали исследования и книгу, посвященные потенциалу искусственного интеллекта в роли «морального компаса», способного содействовать принятию более взвешенных решений людьми. Они разработали «морально выверенный» алгоритм для распределения донорских органов и изучали сценарии, в которых люди предпочли бы делегировать принятие моральных решений ИИ.
Целью проекта OpenAI является создание алгоритмов, способных предсказывать, как люди будут оценивать с моральной точки зрения различные ситуации в медицине, праве и бизнесе.
Создание искусственного интеллекта, который может принимать моральные решения, остается сложной задачей. В 2021 году некоммерческий Институт искусственного интеллекта Аллена создал инструмент под названием Ask Delphi для предоставления этически обоснованных рекомендаций. Модель справлялась с оценкой простых моральных дилемм. Например, понимала, что списывание на экзамене — это неправильно. Однако при незначительном изменении вопросов система выдавала парадоксальные результаты, одобряя такие действия, как убийство младенцев.
Причина кроется в принципах функционирования современных систем искусственного интеллекта. Модели машинного обучения представляют собой статистические системы, которые, обучаясь на огромных массивах данных из интернета, выявляют закономерности и используют их для прогнозирования. ИИ не способен понимать этические концепции, а также учитывать рассуждения и эмоции, которые лежат в основе моральных решений. В результате искусственный интеллект часто воспроизводит ценности западных, образованных и индустриализированных стран, поскольку интернет, а следовательно, и данные для обучения ИИ, преимущественно состоят из материалов, отражающих эти точки зрения. Взгляды многих людей не учитываются в ответах ИИ, особенно если они не создают онлайн-контент, который попадает в обучающие наборы данных.
Задача создать «моральный ИИ» осложняется тем, что само понятие морали субъективно и неоднозначно. Философы спорят об этике тысячелетиями, и единого ответа нет. Чат-бот Claude придерживается кантианской этики, акцентируя внимание на абсолютных моральных принципах, в то время как ChatGPT демонстрирует склонность к утилитаризму, отдавая приоритет максимальному общему благу. Какой из этих подходов предпочтительнее? Зависит от индивидуальных взглядов. Алгоритм, способный предсказывать моральные суждения человека, должен учитывать все эти нюансы. Это крайне сложная, а то и вовсе невыполнимая задача.