Работающие с ИИ компании должны установить механизмы, которые обеспечат подотчетность алгоритмов и позволят проследить, как ИИ выносит свои вердикты. Об этом сказано в заявлении Еврокомиссии с призывом сформулировать общие этические нормы подходы к проектированию самообучающихся программ.
«Этическое измерение ИИ — это не прихоть или дополнение. Наше общество может получить выгоду от технологий, только если будет им доверять», — подчеркнул глава ЕК по технологиям Андрус Ансип.
Как передает Reuters, чиновники выделили три ключевых момента для построения таких алгоритмов: они должны быть прозрачными, обеспечивать надзор человека, а также подпадать под законы в области обеспечения приватности и защиты данных.
Как и расщепление атома, ИИ можно использовать как во благо, так и во вред. Последнее, например, происходит в Китае, поступательно внедряющем все новые технологии слежки.
В прошлом году ЕК призвала на помощь в разработке строгих стандартов 52 экспертов — академиков, представителей отраслевых объединений, а также крупных компаний, в том числе Google, SAP, Santander и Bayer. Летом должна завершиться пилотная фаза, после чего эксперты проанализируют результаты и представят свои дальнейшие рекомендации Комиссии.
Опрошенные Reuters эксперты надеются, что в итоге удастся разработать такие стандарты работы с ИИ, которые сделают алгоритмы «этичными и ответственными», но в то же время не будут сдерживать развитие этой перспективной технологии в Европе.
Сейчас многие эксперты указывают, что Китай получает большое преимущество в разработке ИИ именно благодаря тому, что игнорирует этические вопросы. У Европы, впрочем, такой возможности нет.