Ведущие разработчики ИИ выбрали неверную стратегию взаимодействия с военными. Они не смогут добиться запрета на появление ИИ-оружия, более того, сами будут способствовать разработке таких систем наименее этичными режимами. В этом уверен эксперт Пол Шарр, интервью с которым опубликовал сайт MIT Technology Review.
Сценарий появления и распространения «бесчеловечного» оружия крайне прост, подчеркивает Шарр: стоит одному государству получить первые образцы в свое распоряжение, как другие страны форсируют разработки, чтобы нивелировать преимущество конкурента.
Поэтому ИТ-гиганты не имеют право одной рукой подписывать клятвы о неучастии в создании военного ИИ, а другой — стучать по столу, требуя от госчиновников ограничить применение технологий, которые считаются опасными.
Шарр уверен, что эффект будет обратным: когда единой политики нет, преимущество получат наименее этичные разработчики и государства, которые плюют на права человека и озабочены лишь возможными технологическими преимуществами. Те же предостережения он высказывает в своей книге «Army of None».
Долгое время оказывавший экспертные услуги Пентагону Шарр уверен, что по тому же пути должны идти и ИТ-гиганты. «Технологии ИИ сейчас имеют и плюсы, и минусы: у них огромный потенциал, но и множество уязвимостей… Исследователи ИИ должны стать частью переговоров, их опыт необходим для формирования политического выбора. Необходимо учесть предвзятость ИИ, прозрачность, обоснованность [его решений], их безопасность и т. п.»
«К сожалению, правительства, похоже, принимают во внимание лишь первую часть — о том, что у ИИ огромный потенциал — но не вторую, о рисках, которые несет технология», — подчеркивает он.
У клятв и отказа от сотрудничества с Пентагоном есть важное последствие, говорит Шарр: каждый шаг в сторону лишь затрудняет возможности продуктивного диалога. При этом такой демарш не блокирует разработку убийственных технологий, а лишь вынуждает военных прибегнуть к услугам разработчиков, для которых контракты важнее этических ограничений.
Голоса экспертов, предупреждающих об опасности определенных ИИ-технологий, в последнее время звучат со всех сторон. Это не останавливает Пентагон от объявления рекордных по размерам тендеров в этой сфере. А агентство по перспективным военным разработкам DARPA прямо указывает, что военным нужен ИИ, который сможет обосновать свои решения на грани жизни и смерти.