Евросоюз подготовит этический кодекс для ИИ
Logo
Cover

Еврокомиссия указала три важнейших момента для создания алгоритмов, которые пойдут на пользу, а не во вред человечеству. Для написания «законов будущего» привлекли полсотни экспертов.

77

Работающие с ИИ компании должны установить механизмы, которые обеспечат подотчетность алгоритмов и позволят проследить, как ИИ выносит свои вердикты. Об этом сказано в заявлении Еврокомиссии с призывом сформулировать общие этические нормы подходы к проектированию самообучающихся программ.

«Этическое измерение ИИ — это не прихоть или дополнение. Наше общество может получить выгоду от технологий, только если будет им доверять», — подчеркнул глава ЕК по технологиям Андрус Ансип.

Как передает Reuters, чиновники выделили три ключевых момента для построения таких алгоритмов: они должны быть прозрачными, обеспечивать надзор человека, а также подпадать под законы в области обеспечения приватности и защиты данных.

Как и расщепление атома, ИИ можно использовать как во благо, так и во вред. Последнее, например, происходит в Китае, поступательно внедряющем все новые технологии слежки.

В прошлом году ЕК призвала на помощь в разработке строгих стандартов 52 экспертов — академиков, представителей отраслевых объединений, а также крупных компаний, в том числе Google, SAP, Santander и Bayer. Летом должна завершиться пилотная фаза, после чего эксперты проанализируют результаты и представят свои дальнейшие рекомендации Комиссии.

Опрошенные Reuters эксперты надеются, что в итоге удастся разработать такие стандарты работы с ИИ, которые сделают алгоритмы «этичными и ответственными», но в то же время не будут сдерживать развитие этой перспективной технологии в Европе.

Сейчас многие эксперты указывают, что Китай получает большое преимущество в разработке ИИ именно благодаря тому, что игнорирует этические вопросы. У Европы, впрочем, такой возможности нет.