Пять пугающих прогнозов о развитии ИИ
Logo
Cover

Искусственный интеллект невольно вызывает ассоциации с голливудскими фильмами вроде «Бегущего по лезвию» или «Матрицы». Раньше можно было легко отмахнуться от подобных сценариев — это же фантастика. Но теперь ИИ — реальная технология, у которой есть свои риски.

231

Эксперты CNBC назвали пять самых пугающих тенденций, связанных с повсеместным проникновением искусственного интеллекта в нашу жизнь. Причем произойти все может настолько быстро, что времени исправить ошибки не будет.

Массовая безработица

Самый распространенный страх относительно ИИ — это безработица, сравнимая по масштабам с Великой Депрессией, но не в отдельно взятой стране, а по всему миру.

Согласно оксфордскому исследованию, ИИ отберет рабочие места у клерков, банковских служащих низшего звена и специалистов по подготовке налоговых деклараций. Бюро Статистики труда США также составило список из 41 профессии, которые окажутся под угрозой исчезновения в ближайшие восемь лет. В их числе: операторы колл-центров, секретари и наборщики текстов. Но больше всего от автоматизации пострадает производственный сектор.

Однако в целом паника необоснованна. Да, ИИ уничтожит 1,8 млн рабочих мест в самых разных отраслях. Но, согласно прогнозу Gartner, создаст 2,3 млн новых. По другим прогнозам, только в одной Британии роботизация создаст 7,2 млн новых вакансий в сферах здравоохранения, науки и образования.

И о некоторых из них мы могли только мечтать — уже сейчас можно отлично зарабатывать, став репетитором по видеоиграм. Специалисты с высокой квалификацией, особенно в интеллектуальной сфере, по-прежнему останутся востребованы. А спрос на инженеров и разработчиков ИИ только возрастет.

Война роботов

Внедрение ИИ в военные технологии, а также создание «роботов-убийц» может послужить началом Третьей мировой войны. Больше всех об этом беспокоится Илон Маск, регулярно предрекая подобный исход. Увы, с ним солидарны многие эксперты. По их мнению, ведение войны с помощью ИИ может спровоцировать ряд этических дилемм, а сбои в программе — вызвать гибель человечества и на практике воспроизвести сценарий «Терминатора«.

В 2013 году группа неправительственных организаций основала движение «Остановим роботов-убийц», чтобы помешать дальнейшей разработке военных беспилотников и других военных ИИ-технологий. Контракт Google с Пентагоном и ее участие в проекте Maven вызвали ожесточенные споры внутри компании, после чего около дюжины сотрудников уволились в знак протеста, а 4000 инженеров выступили решительно против против подобного сотрудничества.

Письмо-клятву с призывом к властям полностью запретить создание летального автономного ИИ-оружия подписали 160 компаний и 2400 ученых и предпринимателей, в их числе сооснователь DeepMind Демис Хассабис и проект Google Xprize Foundation. Сами они обещают не вести подобных разработок. Но уверены, что гарантии нужны на государственном уровне. Иначе рано или поздно машины научатся убивать людей с помощью алгоритмов, разработанных менее щепетильными компаниями.

Эти опасения нельзя назвать беспочвенными. Достаточно вспомнить инцидент 1983 года, когда несовершенные советские компьютеры сигнализировали, что США выпустили ракеты в сторону СССР. Если бы не вмешательство простого офицера Станислава Петрова, который не поверил этим данным, ядерная война могла начаться еще 35 лет назад.

Роботы-врачи

Новости об очередных успехах ИИ в диагностике поступают еженедельно. Алгоритмы способны выявлять смертельные болезни на самой ранней стадии, существенно увеличивая шансы пациентов на полное выздоровление.

Проблема в том, что все выдающиеся достижения ИИ совершает в узконаправленных областях. Специализированное приложение для диагностики болезней сердца может принять рак за редкое заболевание. И назначить лечение, которое станет для пациента смертельным. Это уже происходит — пока, к счастью, во время синтетических тестов.

Однако в академических кругах опасаются, что врачи начнут слишком полагаться на технологии, забывая о развитии собственного кругозора и интуиции, которая позволяет людям ставить диагнозы на основании полномасштабной оценки состояния пациента.

Суперкомпьютер IBM Watson обучали на ограниченном количестве медицинских сценариев, большинство из которых были гипотетическими, а не взятыми из конкретных медкарт пациентов. Он поставил целый ряд неправильных диагнозов и дал небезопасные и некорректные рекомендации по лечению рака. Врачам не стоит забывать, что ИИ — это вспомогательный, а не основной инструмент в их работе.

Еще одна проблема, связанная с ИИ в здравоохранении — этическая. Корректно ли вносить в базы данных, на которых обучают нейросети, сведения из личных дел пациентов? Надежно ли хранится эта информация? Не будут ли разработчики использовать эти данные в своих целях? Так, Национальную службу здравоохранения Великобритании критикуют за сотрудничество с DeepMind. Год назад группа правозащитников выявила нарушение акта о защите информации. А новый доклад независимой группы аналитиков указал на возможность захвата DeepMind Health «непомерной монополии».

Тотальная слежка

В Китае массовый контроль за гражданами давно стал частью повседневной жизни. Повсеместное внедрение системы распознавания лиц, сбор базы данных ДНК, перманентный мониторинг соцсетей — все это напоминает антиутопию. Людей с низким социальным рейтингом не пускают в отпуск, а за каждым их шагом наблюдают не меньше 200 млн камер.

В Синьцзян-Уйгурском автономном районе на смартфоны граждан принудительно требуют установить приложение, которое распознает исламский контент — ключевые слова и изображения — и сообщает об этом в полицию. Обмен запрещенными материалами и подозрительные звонки жестко караются. В спецлагерях содержат десятки тысяч уйгуров.

По оценкам исследовательской фирмы Technavio, в 2016 году мировой рынок систем распознавания лиц составил $2,3 млрд, но к 2021 году он вырастет почти в три раза и достигнет $6,5 млрд. Китай стремится стать мировым лидером в области ИИ к 2030 и выделяет на реализацию этой цели $146,6 млрд.

Западный мир, напротив, всячески стремится оградить себя от массовой слежки. Так, Microsoft призвала ограничить применение технологии распознавания лиц. Президент компании присоединился к хору руководителей ИТ-гигантов, которые призывают законодателей четко очертить рамки применения технологии, в развитие которой они сами вкладывают солидные ресурсы. По их мнению, вмешательство государства — единственный способ ограничить использование технологии для создания антиутопии.

В Британии подан первый иск против системы распознавания лиц. Его автор Эд Бриджес считает, что использование систем автоматического распознавания лиц нарушает его право на приватность. А Верховный суд США обязал следователей получать судебный ордер для доступа к данным геолокации с телефонов подозреваемых. Это решение уже называют победой защитников цифровой приватности и обидным поражением правоохранительных органов.

Дискриминация

ИИ-алгоритмы могут быть предвзяты, поскольку за их обучение отвечают люди. А значит, инженеры невольно передают им свои расовые, гендерные, половые и прочие предрассудки. Это лишает ИИ той «холодной оценки чистого разума», которую все от него ожидают. При этом ошибка используемого полицией алгоритма грозит человеку ложными обвинениями и потенциально может разрушить его жизнь.

Чтобы справиться с этой проблемой, мэр Нью-Йорка Билл де Блазио объявил о создании «первой в своем роде в США» специальной комиссии по изучению алгоритмов искусственного интеллекта, которые применяют городские агентства для принятия решений.

При этом, когда дело касается поиска работы, дискриминация по половому или расовому признаку отходит на второй план. Особенно хорошо это осознают студенты, которые, не обладая большим опытом, мало чем могут заинтересовать работодателей. Но и эту проблему должен решить ИИ. Выпускники Йельского университета Эрик Хо и Эндрю Майерс создали сервис RippleMatch. С помощью методов ИИ он помогает быстро найти работу людям с образованием, но без опыта.