Разворот Meta к «суперинтеллекту» начался летом: в июне компания инвестировала $14,3 млрд за миноритарную долю в Scale AI, фактически переманив 28-летнего основателя Александра Вана во главу новосозданного подразделения Meta Superintelligence Labs (MSL). Ван получил пост Chief AI Officer, а структура MSL была выстроена как центр ускоренного внедрения моделей и инструментов ИИ в продукты Meta. Сделка оценивала Scale AI примерно в $29 млрд и стала крупнейшей для Meta после покупки WhatsApp. Об этих параметрах писали Reuters, The Verge и Le Monde.
К осени курс на «операционную эффективность» затронул и исследовательские блоки: в октябре Meta сократила около 600 сотрудников в ИИ-подразделении, в первую очередь в командах FAIR и инфраструктуры. В служебной записке, с которой ознакомились Business Insider и другие издания, Ван объяснял увольнения стремлением «ускорить принятие решений» и сделать коллективы «маленькими, но плотными по таланту». Рекрутинг при этом продолжился в элитную TBD-лабораторию, занятую обучением крупных языковых моделей.
В этих условиях план Леrуна выглядит не только карьерным, но и идейным разрывом. Один из «крёстных отцов» глубокого обучения годами настаивал, что все авторегрессионные LLM-модели — ChatGPT или Llama, — это мощные, но ограниченные «стохастические попугаи».
Без познавательного «заземления» в реальности они не дотягиваются до человеческого рассуждения и планирования. «Интеллект невозможен без связи с реальностью; язык — слишком грубое приближение мира», — объяснял он в интервью и лекциях, продвигая курс на world models и JEPA-подобные архитектуры. Эта позиция — системная, а не ситуативная реакция на модный тренд.
Руководство Meta публично придерживается противоположной логики: ИИ должен быстрее материализоваться в продуктах компании. После весеннего релиза семейства Llama 4 компания агрессивно развивает линейку, обещая прирост качества диалога, кода и «контенциозных» ответов; однако независимые тесты и профильные обзоры встретили релиз сдержанно: часть бенчмарков показала отставание от лидеров, а вокруг прозрачности отдельных оценок вспыхивали дискуссии. Для Лекуна, убеждённого, что «следующее поколение моделей будет построено на других принципах», это — симптом той самой «потолочной» архитектуры LLM, а не просто лаг методологии.
Финансовая рамка только усиливает напряжение. В октябре Meta подняла прогноз капзатрат на 2025 год до $70–72 млрд, предупредив о «заметном» росте в 2026-м. Реакция рынка была резкой: котировки провалились на двузначную величину, инвесторы потребовали понятных путей монетизации сверхзатрат на центры обработки данных и модели. Вопросы к окупаемости звучали тем громче, чем слабее оказывался эффект от громких релизов — включая ту же Llama 4.
Если уход Лекуна подтвердится, Meta рискует потерять не только символ открытой академической культуры, с которой начиналось FAIR, но и внутреннего адвоката длинных научных циклов. Сам 65-летний учёный, сохраняя статус Silver Professor в NYU, судя по утечкам, собирается строить компанию вокруг той самой гипотезы «моделей мира» — ставка амбициозная, но логичная: именно видео, сенсорные потоки и пространственные данные, по его мнению, дадут ИИ эффективность и системное понимание причинно-следственных связей.
Для Кремниевой долины это означает продолжение расслоения: одни корпорации ускоряют эксплуатацию LLM ради быстрого получения доходов, другие ищут «после-LLM» архитектуры, способные выйти за пределы статистической имитации языка.
В краткосрочной перспективе Meta вряд ли изменит курс: команда Вана, подкреплённая рекордной программой капитальных затрат и притоком кадров, будет гнать продуктовую повестку — от ассистентов в WhatsApp и Instagram до сервисов для кодеров. Но в среднесрочной — расхождение стратегий может задать новую «ось конкуренции» в ИИ: не «у кого больше H100», а «кто первым построит работающие модели мира». И если стартап Лекуна сумеет показать инженерные прорывы там, где LLM упираются в пределы, рынок простит ему и долгий цикл, и научный риск.

