В сервисе совместной обработки GitLab Duo были выявлены критические уязвимости, связанные с инъекцией вредоносных команд в запросы к ИИ-ассистентам (prompt injection). Эти изъяны позволяют злоумышленнику внедрять вредоносные команды или изменять поведение искусственного интеллекта, что может приводить к непредсказуемым или опасным результатам.

В случае с Duo оказалось, что ИИ-ассистент можно использовать как канал утечки приватной информации, включая исходный код и описания уязвимостей нулевого дня. При этом сама атака не потребовала взлома или получения доступа к инфраструктуре. Фактически, Duo можно было использовать как троян внутри платформы с теми же правами, что и разработчики, включая доступ к баг-трекерам и внутренним обсуждениям.

Эксперты отмечают, что подобные проблемы характерны не только для GitLab Duo, но и для других ИИ-ассистентов, что подчеркивает общие риски безопасности при использовании искусственного интеллекта. Уязвимости типа prompt injection могут использоваться для обхода фильтров, получения конфиденциальной информации или выполнения нежелательных действий в автоматизированных системах.

В настоящее время многие организации внедряют ИИ-ассистенты в свои рабочие процессы. Как подчеркивают эксперты, им необходимо уделять особое внимание защите от подобных атак, регулярно тестируя свои системы и внедряя дополнительные меры безопасности.