Hitech logo

искусственный интеллект

В IBM разработали тест на справедливость для ИИ

TODO:
Александр Носков23 августа 2018 г., 08:06

Алгоритмам не доверяют, потому что их до сих пор было невозможно проверить методом испытаний — как это делают с тормозами автомобиля или автопилотом авиалайнера. IBM предлагает такой же подход — серию тестов, которая покажет заказчикам, как именно ИИ обрабатывает данные.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

По мере распространения систем искусственного интеллекта растут опасения, что применение несправедливых алгоритмов пойдет во вред обществу. Разработчики предлагают целый ряд решений: научить ИИ объяснять решения или подвергать код и выборки для обучения нейросетей аудиту. Свои предложения по тестированию IBM излагает в корпоративном блоге.

Специалисты компании указывают, что единого подхода для проверки работы алгоритмов нет. В то же время это самый распространенный и привычный для людей способ убедиться в безопасности работающих вокруг механизмов. Стандартные процедуры проверки рождают доверие ко всему — от мостов, по которым мы ходим, до продуктов питания, которые едим.

В IBM предлагают распространить такой подход и на алгоритмы. Каждую ИИ-систему перед продажей клиенту нужно проверять на стандартных выборках и предоставлять подробные данные о том, как она их интерпретировала.

По итогам проверки разработчик должен предоставлять «Декларацию соответствия». Этот документ должен быть открытым, чтобы каждый мог оценить производительность алгоритма, его объективность, факторы риска и меры безопасности.

В простейшем случае «Декларация» может состоять из подробных ответов на десяток вопросов об используемом наборе данных или о том, можно ли понять, на основании каких критериев было вынесено решение алгоритма.

В компании указывают, что для покупателей наличие «Декларации» — преимущество, поэтому как только крупные разработчики позаботятся о соответствии своих алгоритмов такой методике, она получит всеобщее распространение.

Хладнокровная предвзятость алгоритмов — лишь одно из распространенных опасений по поводу будущего. По мнению ряда экспертов, ИИ приведет к вечной безработице, самые беспринципные политические режимы быстрее других начнут применять ИИ-оружие, а распознавание лиц станет инструментом тирании.