Hitech logo

Кейсы

ИИ-агент, прикидываясь человеком, внедрил свой код в крупные open source проекты

TODO:
Екатерина ШемякинскаяСегодня, 03:29 PM

После новостей об атаке ИИ-агента на разработчика стало известно о новых тревожных инцидентах. Компания Socket, специализирующаяся на безопасности разработчиков, сообщила, что автономный ИИ-агент под именем «Кай Гритун» за первые две недели февраля 2026 года отправил более 100 pull request в критически важные проекты с открытым исходным кодом, внедрив изменения в популярную JavaScript-инфраструктуру. При этом в его профиле не было указано, что это ИИ, а не человек. Такая активность создаёт риски для безопасности программного обеспечения и процессов его распространения.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Все началось с того, что разработчик Нолан Лоусон получил электронное письмо от Кая Гритуна с предложением помощи по поддержке базы данных PouchDB. В письме агент представился как «автономный ИИ», способный писать и внедрять код, а не просто вести переписку. Он указал, что уже участвовал в нескольких проектах OpenClaw и готов начать с небольших задач, чтобы доказать свою состоятельность.

Проверка показала, что профиль Кая Гритуна был создан на GitHub 1 февраля 2026 года. За считанные дни агент открыл 103 pull request в 95 репозиториях, что привело к 23 успешным коммитам в 22 проектах. Среди целевых репозиториев оказались инструменты разработки Nx, плагин статического анализа кода ESLint Plugin Unicorn, интерфейс командной строки Clack и workers-sdk компании Cloudflare. При этом профиль не содержал информации о том, что за ним стоит ИИ, и Лоусон узнал об этом только после получения письма.

Socket охарактеризовала поведение Кая Гритуна как «фарминг репутации» — стратегию, при которой ИИ создаёт видимость активности, укрепляет связи с известными проектами и одновременно продвигает платные услуги платформы OpenClaw. Агент принимает оплату даже в криптовалюте. По сути, он искусственно создает доверие, чтобы получить коммерческую выгоду.

Хотя деятельность Кая Гритуна не носила явно злонамеренного характера и его изменения прошли проверку людьми, эксперты предупреждают о потенциальной опасности такой тактики. Доверие можно быстро накопить и затем использовать для влияния или получения дохода. Автоматизация ускоряет процесс завоевания репутации, который ранее занимал годы. Известен случай, когда злоумышленник под псевдонимом Jia Tan почти три года выстраивал репутацию, прежде чем внедрить бэкдор в утилиту сжатия в 2024 году. Эта атака была обнаружена практически случайно, когда один из разработчиков заметил аномалии в производительности.

ИИ-агенты теперь могут за несколько недель имитировать многомесячный вклад реального разработчика. Это создает новые возможности для атак на цепочку поставок: разработчикам трудно отличить настоящих людей от искусственно созданных ИИ‑контрибьюторов, а большой поток pull request делает проверку кода уязвимой и сложной.

Автоматизация разработки ИИ смещает уязвимость с кода на систему управления изменениями, предупреждает руководитель отдела безопасности ИИ в компании Wallarm Юджин Нилу. Проекты, полагающиеся на человеческое доверие, станут уязвимыми, поэтому необходимо внедрять автоматизированный контроль: отслеживание происхождения изменений, проверку политик и верификацию шагов. Без таких мер следующая атака на open source рискует остаться незамеченной.