Первый перелом произошел незаметно — «когда у ворот просто сломали замок». В 2020 году обучение передовых моделей стоило миллионы долларов, однако уже через два года эти затраты снизились примерно в десять раз. Сегодня, как отмечает Льюис, «небольшая команда с приличным сервером способна снять защитные фильтры, на которые раньше уходили бюджеты уровня крупных корпораций». Это означает, что прежняя стратегия контроля через ограничение доступа больше не работает.
Эта мысль подробно раскрыта в исследовании, подготовленном группой ученых во главе с Джейми Бернарди. Авторы фиксируют: «бутылочное горлышко» контроля не сужается — оно исчезает. Методы вроде «многократного взлома» позволяют обходить ограничения даже без доступа к внутренним параметрам моделей. Более того, попытки сделать системы «безопасными» через запреты порождают новые риски. Как объясняет Льюис, здесь действует «компромисс между использованием и злоупотреблением»: если вы запрещаете модели знать, как работает вирус, чтобы остановить биотеррориста, вы одновременно лишаете следующее поколение врачей инструмента для борьбы с реальной пандемией. А если вы учите ИИ распознавать компоненты взрывчатки или биологического оружия, чтобы он мог блокировать опасные запросы, вы неизбежно передаете эту информацию тем, кто ищет способы обойти защиту.
Второй перелом, по его мнению, оказался ещё глубже. К 2025 году стало очевидно, что ИИ нельзя воспринимать как аналог человеческого интеллекта. Как подчеркивает профессор Йельского университета Лучано Флориди, это скорее форма «действующей субъектности» — инструмент, который способен выполнять задачи, но не имеет ни намерений, ни ответственности.
Опасность усиливается тем, что общество само адаптировалось под такую логику. «Мы не спрашиваем, подстраивается ли ИИ под нас, — пишет Льюис. — Мы сокращаем собственные институты, чтобы алгоритмы могли проходить через них быстрее». За последние годы экономика, медиа и государственные процессы были оцифрованы и стандартизированы — так, чтобы их можно было эффективно обрабатывать машинами. В результате «мы незаметно тренируем мир быть удобным не для людей, а для систем».
Это уже не инженерная проблема, а политическая. Речь идет не о донастройке моделей, а о переустройстве общества. Если ИИ используется для атаки на энергосистему, нужен не «более этичный» ИИ, а инфраструктура, способная автономно восстановить работу. Если дипфейки искажают выборы — важнее не детекция, а готовность общества провести их заново. Такой подход разрушает иллюзию, что проблему можно решить техническими ограничениями: теперь это вопрос политической воли и институциональной зрелости. То есть технологии не избавляют нас от политических решений, а только делают расплату за ошибки намного более серьезной.
Из этого вытекает необходимость строить «закалённое» общество. Нужна системная адаптация: от подтверждения человеческой идентичности на цифровых платформах до создания защитных ИИ-систем и резервной инфраструктуры для критически важных сфер, например, энергетики и здравоохранения. Это не яркое технологическое будущее, а скучная, но необходимая работа: постоянные проверки, запасные системы и готовность к сбоям.
Главный вопрос эпохи ИИ — не в том, смогут ли машины думать как люди, а в том, смогут ли люди сохранить способность управлять собой, когда отказаться от этого станет проще.
Ответ зависит от трех вещей: сохранения права человека отменять решения алгоритмов, создания устойчивой инфраструктуры на случай сбоев и постоянной «дисциплины цикла» — непрерывного выявления и отработки рисков. Общество стоит перед выбором: продолжать подстраиваться под машины или укреплять собственные институты. «Пришло время перестать быть зрителями и начать быть архитекторами», — делает вывод автор.

