«Этим занимаются крупные компании, вам тут нечего предложить. Вам следует работать над системами искусственного интеллекта следующего поколения, которые преодолеют ограничения больших языковых моделей», — заявил Лекун на конференции VivaTech в Париже.
Главный научный сотрудник Meta (компания признана экстремистской и запрещена в РФ) по искусственному интеллекту и профессор Нью-Йоркского университета также написал в X: «Если вы студент, заинтересованный в создании систем искусственного интеллекта следующего поколения, не работайте над БЯМ». Эти высказывания быстро вызвали шквал вопросов и оживили дискуссию об ограничениях современных больших языковых моделей. Столкнувшись с непониманием, Лекун частично пояснил свою позицию. Он отметил, что сам работает над такими системами и призывает других присоединиться к нему.
Не имея конкретных примеров, многие пользователи X задались вопросами: что подразумевается под «ИИ следующего поколения» и какая альтернатива может быть предложена большим языковым моделям. Разработчики, специалисты по данным и эксперты по искусственному интеллекту предложили множество вариантов: от моделей на основе энергии до сетей Колмогорова-Арнольда (KAN).
Один пользователь выделил пять систем искусственного интеллекта следующего поколения: мультимодальный ИИ, рассуждение и общий интеллект, воплощенный искусственный интеллект и робототехника, обучение без присмотра и самоконтроля, общий искусственный интеллект (AGI).
Оппоненты же, напротив, отмечали, что сейчас самое подходящее время для студентов и других специалистов заняться БЯМ, поскольку их потенциал еще далеко не исчерпан. Например, многое предстоит узнать о подсказках, взломе ограничений и обеспечении доступности этих моделей для широкого круга пользователей. Конечно, некоторые обратили внимание на то, что сама Meta активно занимается разработкой больших языковых моделей, и предположили, что Лекун хитрым образом пытается задушить конкуренцию. Один из пользователей саркастически заметил: «Когда глава отдела искусственного интеллекта в крупной компании говорит „не пытайтесь конкурировать, вам нечего предложить“, это только разжигает желание соревноваться».
Являясь сторонником целенаправленного ИИ и систем с открытым исходным кодом, Лекун также заявил Financial Times, что у больших языковых моделей ограниченное понимание логики, и они не достигнут человеческого уровня интеллекта.
По его словам, они «не понимают физический мир, не обладают постоянной памятью, не могут рассуждать в разумном смысле этого слова и не могут планировать иерархически». Многие разделяют скептицизм Лекуна относительно ограничений больших языковых моделей. Участники обсуждения критиковали «излишнюю зацикленность» отрасли на них, называя их «тупиком на пути к настоящему прогрессу». Некоторые отметили, что БЯМ — это всего лишь «соединительная ткань, которая быстро и эффективно группирует системы вместе».
Лекун никогда не уклонялся от дебатов. У него были бурные споры с другими крестными отцами ИИ, например, с Джеффри Хинтоном, по поводу экзистенциальных рисков ИИ. Лекун относится к лагерю тех, кто считает эту опасность преувеличенной. В вопросах БЯМ Лекун с Хинтоном тоже не сходятся: в недавнем интервью британский ученый-компьютерщик посоветовал полностью сосредоточиться на больших языковых моделях. Хинтон также утверждал, что мозг ИИ очень близок к человеческому.