В IBM разработали тест на справедливость для ИИ
Logo
Cover

Алгоритмам не доверяют, потому что их до сих пор было невозможно проверить методом испытаний — как это делают с тормозами автомобиля или автопилотом авиалайнера. IBM предлагает такой же подход — серию тестов, которая покажет заказчикам, как именно ИИ обрабатывает данные.

По мере распространения систем искусственного интеллекта растут опасения, что применение несправедливых алгоритмов пойдет во вред обществу. Разработчики предлагают целый ряд решений: научить ИИ объяснять решения или подвергать код и выборки для обучения нейросетей аудиту. Свои предложения по тестированию IBM излагает в корпоративном блоге.

Специалисты компании указывают, что единого подхода для проверки работы алгоритмов нет. В то же время это самый распространенный и привычный для людей способ убедиться в безопасности работающих вокруг механизмов. Стандартные процедуры проверки рождают доверие ко всему — от мостов, по которым мы ходим, до продуктов питания, которые едим.

В IBM предлагают распространить такой подход и на алгоритмы. Каждую ИИ-систему перед продажей клиенту нужно проверять на стандартных выборках и предоставлять подробные данные о том, как она их интерпретировала.

По итогам проверки разработчик должен предоставлять «Декларацию соответствия». Этот документ должен быть открытым, чтобы каждый мог оценить производительность алгоритма, его объективность, факторы риска и меры безопасности.

В простейшем случае «Декларация» может состоять из подробных ответов на десяток вопросов об используемом наборе данных или о том, можно ли понять, на основании каких критериев было вынесено решение алгоритма.

В компании указывают, что для покупателей наличие «Декларации» — преимущество, поэтому как только крупные разработчики позаботятся о соответствии своих алгоритмов такой методике, она получит всеобщее распространение.

Хладнокровная предвзятость алгоритмов — лишь одно из распространенных опасений по поводу будущего. По мнению ряда экспертов, ИИ приведет к вечной безработице, самые беспринципные политические режимы быстрее других начнут применять ИИ-оружие, а распознавание лиц станет инструментом тирании.