ИИ-помощников уже используют в различных бизнес-контекстах, в том числе в банковской сфере. Они помогают определить, какую сумму ипотечного кредита может позволить себе человек, или какой налоговый вычет ему положен. Проблема одна — такие системы используют математические алгоритмы, основанные на чистой статистике. Им непонятно, что люди могут лгать, особенно ради денег.
Учёные из Северной Каролины хотели скорректировать алгоритмы ИИ, чтобы они научились распознавать и учитывать ложь. Для этого они создали новый набор параметров обучения, который помогает ИИ выявлять контексты, в которых у людей есть стимул солгать. Он также позволяет ИИ замечать противоречия.
В ходе моделирования модифицированный ИИ смог распознать неточную информацию от пользователей. Пока что он лучше справляется с «большой ложью», когда ему предоставляют заведомо неверные сведения. Ему ещё тяжело понять, когда пользователи врут в мелочах или предоставляют полу-правду.
Исследователи настроены оптимистично: одно знание о том, что ИИ может распознать ложь, снижает желание лгать. В будущем подобные системы станут достаточно умными, чтобы люди не стремились их обмануть. Они также сделали новые параметры обучения ИИ общедоступными, чтобы другие разработчики могли поэкспериментировать с ними.