Большинство исследований алгоритмической справедливости сосредоточено на алгоритме или самом решении, но исследователи стремились изучить отношения между людьми, затронутыми этими решениями. По словам ученых, ИИ все чаще решает, как ресурсы должны распределяться между людьми. Поэтому авторы нового исследования стремились понять, как в результате этой оценки люди воспринимают друг друга и ведут себя по отношению друг к другу.
В более раннем исследовании робот выбирал, кому дать блок, и ученые изучали реакцию каждого человека на решения машины о распределении. Каждый раз, когда робот предпочитал одного человека, другой расстраивался.
С помощью программного обеспечения с открытым исходным кодом ученые разработали версию тетриса для двух игроков. Версия ученых, Co-Tetris, позволяет двум людям играть в тетрис вместе, делая ход по очереди, чтобы завершить каждый раунд. «Распределитель» — либо человек, либо ИИ — определял, кто делает каждый ход. Эксперимент был построен таким образом, чтобы у каждого игрока было либо 90% ходов, либо 10%, либо 50%.
Исследователи предсказуемо обнаружили, что те, кто получил меньше ходов, понимали, что их партнер получил значительно больше. При этом чувства по этому поводу были в основном одинаковыми, независимо от того, кто занимался распределением — человек или искусственный интеллект.
Эффект от этих решений исследователи назвали «поведением машинного распределения» по аналогии с известным феноменом «поведения распределения ресурсов» — наблюдаемому поведению людей, которое они демонстрируют на основе решений о распределении. В данном случае определенное поведение является результатом решения ИИ.
Исследователи также обнаружили, что справедливость не ведет автоматически к лучшему игровому процессу и производительности. Равное распределение ходов в среднем приводило к худшему результату, чем неравное распределение. Если сильный игрок получал большую часть блоков, команда достигала лучшего результата.