Японских разработчиков ИИ обяжут рассказывать о принципах работы их алгоритмов
Logo
Cover

Власти Японии решили сформулировать правила «человекоцентричного» ИИ. В июне следующего года на саммите G20 Токио предложит принять их на международном уровне.

Главный принцип, который хочет закрепить правительство Японии, — это ответственность компании-разработчика за созданные ею алгоритмы, сообщает Nikkei Asian Review.

В правительственных документах говорится, что работа нейросетей не должна нарушать права человека. Также алгоритмы должны бережно обращаться с персональными данными.

В целом разработка ИИ должна стать более прозрачной и опираться на принципы соревновательности. Самая главная цель инициативы правительства Японии — сделать так, чтобы люди лучше понимали, как машины принимают решения.

Если машины будут объяснять принимаемые решения, то можно будет выяснить, отказал ИИ, например, в приеме на работу из-за профессионального уровня соискателя или из-за расовых либо иных предубеждений разработчиков ПО.

Полный свод правил будет состоять из семи документов. Правительство Японии надеется, что с помощью этих нормативных актов сможет минимизировать страхи людей перед искусственным интеллектом.

В США, Сингапуре и других странах создают комиссии для надзора за развитием искусственного интеллекта. В этом процессе участвуют и большие корпорации — Google, например, создал кодекс разработки нейросетей и машинного обучения. Впрочем, есть исследования, доказывающие, что такие своды правил бесполезны.