Каждый пятый фрагмент кода ИИ содержит фейковые библиотеки

Каждый пятый фрагмент кода ИИ содержит фейковые библиотеки


110
21 поделиться, 110 баллы

Исследователи по безопасности обнаружили новую потенциальную угрозу для цепочек поставок программного обеспечения, связанную с кодом, генерируемым искусственным интеллектом. Угрозу обозначили термином «slopsquatting».

Под «slopsquatting» исследователь Сет Ларсон понимает атаку, при которой злоумышленники публикуют вредоносные пакеты под вымышленными именами. Такие имена не являются опечатками известных библиотек, а полностью выдуманы и нередко предлагаются моделями ИИ.

Проблема возникает потому, что генеративные модели часто предлагают несуществующие библиотеки при написании кода. В исследовании, опубликованном в марте 2025 года, около 20 % из 576 000 проанализированных фрагментов кода на Python и JavaScript содержали ссылки на несуществующие пакеты.

Даже продвинутые модели иногда «галлюцинируют» имена пакетов: у ChatGPT‑4 такие случаи встречаются примерно в 5 % примеров, а у ряда открытых моделей, включая DeepSeek, WizardCoder и Mistral, доля ошибок значительно выше. Авторы исследования отмечают, что и новейшие модели пока не лишены этих проблем.

Вымышленные имена часто выглядят правдоподобно, и разработчики могут попытаться установить такие пакеты, не подозревая об их несуществовании. Злоумышленники могут зарегистрировать эти изобретённые названия в реестрах вроде PyPI или npm и опубликовать под ними вредоносный код, который попадёт в проекты при установке.

Автоматизация и широкое использование кода, сгенерированного ИИ, повышают риск подобных атак, поскольку вредоносный пакет может быть интегрирован в программный продукт незаметно. Повторяемость и предсказуемость таких вымышленных имён делает их особенно привлекательной целью для злоумышленников.

Исследование показало, что 58 % вымышленных имён появлялись многократно в похожих запросах, 38 % напоминали реальные пакеты, 13 % были опечатками, а остальные — полностью выдуманными. Специалисты по безопасности предупреждают, что такие повторяющиеся шаблоны представляют собой «предсказуемую цель» для атак.

В качестве мер защиты рекомендуют всегда проверять существование пакета перед установкой, фиксировать версии с помощью lock‑файлов, использовать проверку хешей и запускать код, сгенерированный ИИ, в изолированных средах. Снижение параметра «temperature», отвечающего за случайность вывода модели, также может уменьшить количество вымышленных рекомендаций.


Понравилось? Поделитесь с друзьями!

110
21 поделиться, 110 баллы

Какова ваша реакция?

Чего? Чего?
1
Чего?
Плачу Плачу
8
Плачу
Прикол Прикол
7
Прикол
Ого Ого
6
Ого
Злой Злой
5
Злой
Ржака Ржака
4
Ржака
Ух, ты! Ух, ты!
3
Ух, ты!
Ужас Ужас
1
Ужас
Супер Супер
8
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend