Главный принцип, который хочет закрепить правительство Японии, — это ответственность компании-разработчика за созданные ею алгоритмы, сообщает Nikkei Asian Review.
В правительственных документах говорится, что работа нейросетей не должна нарушать права человека. Также алгоритмы должны бережно обращаться с персональными данными.
В целом разработка ИИ должна стать более прозрачной и опираться на принципы соревновательности. Самая главная цель инициативы правительства Японии — сделать так, чтобы люди лучше понимали, как машины принимают решения.
Если машины будут объяснять принимаемые решения, то можно будет выяснить, отказал ИИ, например, в приеме на работу из-за профессионального уровня соискателя или из-за расовых либо иных предубеждений разработчиков ПО.
Полный свод правил будет состоять из семи документов. Правительство Японии надеется, что с помощью этих нормативных актов сможет минимизировать страхи людей перед искусственным интеллектом.
В США, Сингапуре и других странах создают комиссии для надзора за развитием искусственного интеллекта. В этом процессе участвуют и большие корпорации — Google, например, создал кодекс разработки нейросетей и машинного обучения. Впрочем, есть исследования, доказывающие, что такие своды правил бесполезны.