Logo
Cover

Историк и футуролог Юваль Ной Харари предупреждает: ИИ-алгоритмы быстро учатся понимать людей лучше, чем сами люди понимают себя. Большинство из нас пока об этом не подозревает, поскольку мы свято верим в свободу воли и желаний. Однако новые технологии уже позволяют эффективно манипулировать эмоциями.

75833

О глобальном философском кризисе и тайных предубеждениях исследователь будущего рассказал в беседе с Wired.

Как новые финансовые технологии изменят нашу жизнь. Встречайте наш новый проект — рассылку Money+

Мы животные, подверженные взлому

Современное общество построено на идеалах XVIII века, которые вступают во все большую конфронтацию с реальностью. Во главу угла человечество ставит либеральную демократию и свободный рынок, однако Юваль Харари считает эти концепции атрибутами далекого прошлого.

Главная проблема устаревшей идеологии — это, как ни странно, вера в свободу воли. Недавнее исследование доказало, что волеизъявление человека регулируется определенной областью мозга, а значит — теоретически — процесс можно контролировать.

Однако люди считают свою свободу сакральной. Они уверены, что их сознанием нельзя манипулировать, а решениями управлять.

В XXI веке правительство и корпорации научились настолько эффективно «взламывать» человека, что многие даже этого не осознают. Или точнее, как говорит Харари, не хотят осознавать.

«Мое миндалевидное тело, возможно, работает на Путина. Знать об этом не хочу и верить в это не буду. Я сам себе хозяин», — говорит себе человек.

В этих условиях каждый должен как можно лучше разобраться в самом себе, выявить свои сильные и слабые стороны. Главное требование — разбираться в себе лучше, чем это делают алгоритмы.

Харари приводит в пример рекламу газированного напитка, которая подстраивается под предпочтения пользователя. И внезапно показывает мужчине ролик с другими красивыми мужчинами. С помощью алгоритма компания определила скрытую гомосексуальность человека, хотя сам он об этом пока не подозревал.

Антивирус от страстей и предубеждений

В нынешней ситуации взлом человека — это не биохакинг из будущего, а манипуляция эмоциями с помощью алгоритмов. Именно поэтому Харари упоминает миндалевидное тело — область мозга, которая играет определяющую роль в формировании эмоций.

В будущем человечество, возможно, изобретет подобие антивируса от цифрового взлома. Вполне вероятно, что его роль будет выполнять алгоритм. Он станет непрерывно мониторить активность пользователя, сохраняя при этом нейтралитет. Так ИИ вычислит, какой контент волнует человека.

«Если у вас слабость к смешным видеороликам с котами и вы тратите на них слишком много времени, в следующий раз алгоритм вмешается и ограничит вам доступ», — рассказывает Харари.

По такому же принципу машинный интеллект сможет считывать предубеждения. Историк указывает, что люди часто кликают на материалы, которые подпитывают их точку зрения. Так, противники Трампа заинтересуются новостью о том, что президент США «считает, что Земля плоская» или «выступает за убийство всех мусульман». В желании прочитать эти тексты кроется уязвимость человека.

Философия и кооперация спасут мир

Харари советует людям становиться активистами и объединяться с единомышленниками. В составе организации человек станет менее уязвимым перед попытками «взлома».

Ограничивать технологии, как считает историк, бессмысленно. Страны уже вступили в гонку вооружений в сфере искусственного интеллекта, и государство, которое решит поставить разработки на паузу, проиграет в глобальной борьбе.

Причем это касается не только ИИ, но и биотехнологий, которые тесно связаны с работой алгоритмов. Не зря многие разработчики систем на базе машинного обучения в прошлом изучали физиологию или нейронауки.

Харари уверен, что пора вводить курсы по этике для специалистов по компьютерным технологиям.

«Человек получает степень по компьютерным наукам и создает алгоритмы, которые меняют жизни людей, но при этом у него нет базового понимания философии и этики. Это безответственно», — утверждает исследователь.

Он допускает, что через 20-30 лет человечество наконец почувствует, что философские ресурсы прошлого окончательно истощились. А значит, пора «концептуально переосмыслить мир». Харари полагает, что на рынке труда тут же возрастет спрос на философов. Об этом говорят и эксперты по ИИ.

Как перевернуть игру

Харари называет несколько возможных сценариев развития событий, которые выгодны человеку. Один из них предполагает обратное использование технологий. Сейчас власти и корпорации используют их для контроля и слежки за народом, создавая цифровую диктатуру, но можно поменять правила игры.

«Мы могли бы использовать те же системы слежения, чтобы контролировать правительство. Например, выявлять случаи коррупции. Технологии готовы послужить нам. Вопрос в том, хотим ли мы разработать такие инструменты», — цитирует Харари Wired.

Историк также призывает к кооперации, но на этот раз уже на глобальном уровне: «Нужно совместными силами регулировать развитие ИИ и биотехнологий, вот только мы движемся в обратном направлении от глобальной кооперации».