Кодекс ИИ от Google: семь заповедей и четыре запрета
Logo
Cover

Google на фоне скандала из-за сотрудничества с Пентагоном опубликовал первый кодекс принципов для разработки систем искусственного интеллекта, которые должны сделать мир лучше. В Google обещают не создавать ИИ, который может принести вред. Но с одной оговоркой.

Пост в блоге Google опубликован от имени гендиректора компании Сундара Пичаи. Он подчеркивает, что компания решила сформулировать основополагающие принципы, будучи лидером в разработке ИИ. Однако есть и другая сторона медали: скандальный — и секретный — контракт с Минобороны США настолько возмутил работников компании, что Google в итоге вынужденно сворачивает сотрудничество. Хотя, по данным СМИ, в перспективе надеялся зарабатывать на оборонных контрактах около $250 млн ежегодно.

Теперь другой акцент — на этику и объективность. В Google выделяют семь условий для использования ИИ на благо цивилизации.

Во-первых, ИИ должен приносить пользу обществу. Компания намерена продолжать разработку лишь тогда, когда «предполагаемая польза» значительно перевешивает риски причинить вред. Это, например, летальные аварии с беспилотными автомобилями — неизбежные при развитии этой технологии.

Во-вторых, ИИ должен препятствовать созданию или укреплению предвзятости. Этот аспект беспокоит и власти многих стран: советы по робоэтике уже создаются в Нью-Йорке и Сингапуре.

В-третьих, ИИ должен способствовать безопасности и проверяться на соответствие этим принципам.

Четвертый принцип — подотчетность человеку. В Google подчеркивают, что их системы будут воспринимать обратную связь, предоставят объяснения и возможности для апелляции по принятым решениям. Люди всегда смогут указывать и направлять ИИ.

В-пятых, ИИ будет соблюдать конфиденциальность персональных данных. Пути их использования всегода можно будет отследить.

Шестой принцип — соответствие научным стандартам и критериям. На помощь ИИ надеются исследователи в целом ряде сфер, и потому компьютерные помощники должны в полной мере соответствовать предъявляемым научным сообществом требованиям.

Наконец, седьмой принцип, — масштабируемость применений с учетом вышеобозначенных ограничений.

Также Google обозначает четыре сферы, где не будет заниматься разработкой ИИ приложений. Во-первых, это любые технологии, причиняющие вред. В этом пункте Пичаи повторно оговаривается, что компания будет взвешивать потенциальную пользу и последствия. Помимо этого, Google отказывается участвовать в разработке оружия, технологий сбора и использования информации в нарушение международно принятых норм и, наконец, технологий, чье предназначение идет вразрез с международным законодательством и правами человека.

Вместе с тем Google подчеркивает, что продолжит сотрудничество с Пентагоном с целью обеспечить наилучшую безопасность. Интересно, где в этом случае будет проходить «красная линия» с учетом того, что один из главных ИИ-проектов американских военных напоминает «Скайнет».