По мере распространения систем искусственного интеллекта растут опасения, что применение несправедливых алгоритмов пойдет во вред обществу. Разработчики предлагают целый ряд решений: научить ИИ объяснять решения или подвергать код и выборки для обучения нейросетей аудиту. Свои предложения по тестированию IBM излагает в корпоративном блоге.
Специалисты компании указывают, что единого подхода для проверки работы алгоритмов нет. В то же время это самый распространенный и привычный для людей способ убедиться в безопасности работающих вокруг механизмов. Стандартные процедуры проверки рождают доверие ко всему — от мостов, по которым мы ходим, до продуктов питания, которые едим.
В IBM предлагают распространить такой подход и на алгоритмы. Каждую ИИ-систему перед продажей клиенту нужно проверять на стандартных выборках и предоставлять подробные данные о том, как она их интерпретировала.
По итогам проверки разработчик должен предоставлять «Декларацию соответствия». Этот документ должен быть открытым, чтобы каждый мог оценить производительность алгоритма, его объективность, факторы риска и меры безопасности.
В простейшем случае «Декларация» может состоять из подробных ответов на десяток вопросов об используемом наборе данных или о том, можно ли понять, на основании каких критериев было вынесено решение алгоритма.
В компании указывают, что для покупателей наличие «Декларации» — преимущество, поэтому как только крупные разработчики позаботятся о соответствии своих алгоритмов такой методике, она получит всеобщее распространение.
Хладнокровная предвзятость алгоритмов — лишь одно из распространенных опасений по поводу будущего. По мнению ряда экспертов, ИИ приведет к вечной безработице, самые беспринципные политические режимы быстрее других начнут применять ИИ-оружие, а распознавание лиц станет инструментом тирании.