«Выдавать труд людей за работу ботов компании заставляют, прежде всего, технологические проблемы, в частности, недоступность баз больших данных для обучения алгоритмов», — цитирует Guardian Грегори Кобергера, главу компании ReadMe. Он утверждает, что часто сталкивается со случаями использования псевдо-ИИ.
Практика создания фальшивого ИИ началась достаточно давно, но широкое распространение получила в последние годы. Еще в 2008 году компанию Spinvox обвинили в том, что за ее системой конвертации голоса в текстовые сообщения не стояло никаких высоких технологий. На самом деле текст набирали низкооплачиваемые сотрудники в колл-центрах в странах третьего мира.
В 2016 году агентство Bloomberg сообщало об использовании труда людей якобы полностью автоматизированными сервисами-планировщиками распорядка дня, такими как X.ai и Clara.
Сотрудники компаний, «вручную» выполнявшие работу секретарей, жаловались на 12-часовой рабочий день и призывали на самом деле заменить их алгоритмами.
В 2017 году в центре скандала оказалось приложение Expensify, обещавшее автоматизированную систему минимизации текущих расходов. Создатели признались, что часть платежных квитанций обрабатывали и анализировали не алгоритмы, а люди. Это, пожалуй, один из самых вопиющих случаев, который проливает свет на то, как подчас на самом деле устроен современный «ИИ-сервис».
Платежки просто пересылались для обработки на краудсорсинговую интернет-платформу Mechanical Turk, созданную Amazon. На ней за небольшую плату работают сотни тысяч людей со всего мира. Они как раз и выполняют такие рутинные задачи, как обработка платежных поручений.
Самая печальное, что совершенно посторонние люди под видом ИИ получали доступ к персональной информации, в том числе финансовой.
«Я могла, например, досконально изучить историю оплаты поездок какого-либо конкретного человека на такси Uber», — говорит Рошель ЛаПланте, общественный защитник интересов фрилансеров. Она специально устроилась на работу в Mechanical Turk, чтобы выяснить, какие компании передают туда для обработки персональные данные своих клиентов.
Выдавать людей за алгоритмы не стесняются даже крупные компании, вкладывающие миллиарды в развитие ИИ. Правда, делают это они в основном для обучения настоящих алгоритмов. Так, Facebook тренировала своего голосового помощника «М» с помощью людей. Компания Scale продавала базы данных для обучения ИИ-автопилота робомобилей. Данные вручную вбивали в программы работники компании. Они, например, просматривали записи видеокамер робомобиля и обозначали в программе автопилота образы других машин, пешеходов и иных объектов.
Однако наибольший вред наносит прямое мошенничество — когда стартапы выдают людей за ИИ, пытаясь привлечь финансирование. Эксперты опасаются, что это может подорвать ИИ-индустрию, когда правда выйдет наружу. Инвесторы, сегодня «клюющие» на любое упоминание ИИ в названиях или бизнес-планах стратапов, могут жестоко разочароваться и перекрыть каналы финансирования даже разработчикам реальных передовых алгоритмов.
Есть, впрочем, и обратные примеры — когда ИИ-алгоритмы вполне успешно выдают себя за живых людей. Так, ИИ-помощник Duplex от Google может заменить тех самых операторов колл-центров, которым иногда приходилось брать на себя работу еще не доработанных алгоритмов. Этот бот весьма убедительно имитирует голос и манеру общения живого человека.