Hitech logo

Искусственный интеллект

Алгоритмы научились перенимать друг у друга предрассудки

TODO:
Александр Носков7 сентября 2018 г., 10:53

Пока сторонники связывают с распространением ИИ возможность принимать более взвешенные решения, скептики решили проверить, можно ли научить нейросети предвзятости — причем без использования искаженных наборов данных для их обучения. Опыт показал, что это возможно, но также выявил и «противоядие».

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Обычно опасность распространения предвзятости алгоритмов связывают с использованием искаженных наборов данных. Однако исследователи из Университета Кардиффа и MIT создали масштабную игровую симуляцию, чтобы показать другой способ распространения предрассудков и стереотипов — без вмешательства и участия людей. Об их работе рассказывает Science Daily.

В разработке «игровой вселенной» психологи помогали программистам. За основу была взята типичная для отработки стратегий игра по обмену ценностями: каждый ИИ-участник выбирал другой алгоритм для того, чтобы пожертвовать ему очки. При этом из ИИ сформировали несколько групп, и ряд алгоритмов наделили недоверием к членам из других лиг. Все программы пытались перенять выигрышные индивидуальные стратегии — но выяснилось, что в целом «социуму» это часто вредило.

Соавтор исследования Роджер Уитакер говорит, что суперкомпьютер позволил провести «тысячи и тысячи» симуляций с разными начальными условиями: «Предрассудки — серьезная сила природы и эволюции, и они могут распространяться и среди виртуальных агентов, нанося ущерб широкой коммуникации».

Он подчеркивает, что с определенного момента стереотипы распространяются, словно снежный ком, и остановить процесс чрезвычайно сложно. С распространением в реальном мире ИИ-систем, которые «предусматривают автономию и самостоятельный контроль», эта опасность растет.

Уитакер указывает, что в ряде симуляций распространение предрассудков удалось ограничить. Для этого понадобилось запрограммировать общество, разбитое на более мелкие группы. В таких условиях «объективные» алгоритмы, которые чаще взаимодействовали с членами других групп, оказывались в выигрыше. И наиболее эффективной стратегией оказывалось формирование альянса непредвзятых, а носители стереотипов попадали в изоляцию.

Некоторые эксперты считают, что присущие мышлению людей недостатки нужно не искоренять, а использовать для создания более «человечного» ИИ. Когда-нибудь такие ограничения могут буквально спасти человечество, помешав компьютерному сверхразуму спасать планету, истребляя ее обитателей.