
Исследователи по безопасности обнаружили новую потенциальную угрозу для цепочек поставок программного обеспечения, связанную с кодом, генерируемым искусственным интеллектом. Угрозу обозначили термином «slopsquatting».
Под «slopsquatting» исследователь Сет Ларсон понимает атаку, при которой злоумышленники публикуют вредоносные пакеты под вымышленными именами. Такие имена не являются опечатками известных библиотек, а полностью выдуманы и нередко предлагаются моделями ИИ.
Проблема возникает потому, что генеративные модели часто предлагают несуществующие библиотеки при написании кода. В исследовании, опубликованном в марте 2025 года, около 20 % из 576 000 проанализированных фрагментов кода на Python и JavaScript содержали ссылки на несуществующие пакеты.
Даже продвинутые модели иногда «галлюцинируют» имена пакетов: у ChatGPT‑4 такие случаи встречаются примерно в 5 % примеров, а у ряда открытых моделей, включая DeepSeek, WizardCoder и Mistral, доля ошибок значительно выше. Авторы исследования отмечают, что и новейшие модели пока не лишены этих проблем.
Вымышленные имена часто выглядят правдоподобно, и разработчики могут попытаться установить такие пакеты, не подозревая об их несуществовании. Злоумышленники могут зарегистрировать эти изобретённые названия в реестрах вроде PyPI или npm и опубликовать под ними вредоносный код, который попадёт в проекты при установке.
Автоматизация и широкое использование кода, сгенерированного ИИ, повышают риск подобных атак, поскольку вредоносный пакет может быть интегрирован в программный продукт незаметно. Повторяемость и предсказуемость таких вымышленных имён делает их особенно привлекательной целью для злоумышленников.
Исследование показало, что 58 % вымышленных имён появлялись многократно в похожих запросах, 38 % напоминали реальные пакеты, 13 % были опечатками, а остальные — полностью выдуманными. Специалисты по безопасности предупреждают, что такие повторяющиеся шаблоны представляют собой «предсказуемую цель» для атак.
В качестве мер защиты рекомендуют всегда проверять существование пакета перед установкой, фиксировать версии с помощью lock‑файлов, использовать проверку хешей и запускать код, сгенерированный ИИ, в изолированных средах. Снижение параметра «temperature», отвечающего за случайность вывода модели, также может уменьшить количество вымышленных рекомендаций.


Комментариев