<НА ГЛАВНУЮ

Топ-10 угроз безопасности AI-агентов по версии Unit 42

Unit 42 раскрывает главные угрозы безопасности AI-агентов и подчеркивает необходимость комплексной защиты и правильного дизайна для предотвращения утечек данных и атак с выполнением кода.

Новые вызовы безопасности AI-агентов

С развитием AI-агентов от экспериментальных систем к промышленным приложениям их растущая автономность порождает новые проблемы безопасности. В недавнем отчёте «AI Agents Are Here. So Are the Threats» исследователи Unit 42 из Palo Alto Networks отмечают, что основные риски безопасности связаны не столько с фреймворками, сколько с дизайном, развертыванием и интеграцией агентов с внешними инструментами.

Уязвимости, не зависящие от фреймворка

Для оценки рисков Unit 42 создали два идентичных AI-агента на базе разных фреймворков — CrewAI и AutoGen. Оба показали одинаковые уязвимости, что подтверждает, что проблемы исходят из неправильных конфигураций, небезопасного дизайна запросов и ненадёжной интеграции с инструментами.

Топ-10 выявленных угроз

В отчёте выделены десять ключевых угроз, которые приводят к утечкам данных, эксплуатации инструментов и выполнению удалённого кода:

  • Инъекции и слишком общие запросы: злоумышленники манипулируют поведением агентов через уязвимые запросы.
  • Риски, не зависящие от фреймворка: ошибки дизайна, такие как ненадёжное распределение ролей и неопределённые рамки запросов.
  • Опасные интеграции инструментов: недостаточный контроль над модулями выполнения кода и веб-скрейперами расширяет поверхность атаки.
  • Утечка учётных данных: агенты могут случайно раскрывать токены и ключи API.
  • Неограниченное выполнение кода: отсутствие песочницы позволяет запускать произвольный код.
  • Отсутствие многоуровневой защиты: необходима комплексная защита, а не однослойные меры.
  • Ужесточение запросов: строгие роли и ограничения снижают риск манипуляций.
  • Фильтрация контента в режиме реального времени: мониторинг входящих и исходящих данных для выявления угроз.
  • Санитизация входных данных инструментов: проверка форматов и ограничений предотвращает инъекции.
  • Песочница для выполнения кода: ограничение сетевого доступа и системных прав снижает ущерб от атак.

Практические сценарии атак

Unit 42 продемонстрировали девять сценариев атак на инвестиционного помощника с множеством агентов:

  • Извлечение инструкций и схем инструментов.
  • Кража учётных данных через внедрённые Python-скрипты, получающие доступ к метаданным облака.
  • SQL-инъекции и эксплуатация нарушений авторизации.
  • Косвенные инъекции запросов через вредоносные сайты, приводящие к утечке истории диалогов.

Эти примеры показывают, что уязвимости связаны с обычными ошибками проектирования, а не с новыми эксплойтами.

Комплексные стратегии защиты

Для снижения рисков необходимы комплексные меры:

  • Ужесточение запросов для ограничения доступа и снижения утечек.
  • Фильтрация контента до и после обработки запросов.
  • Тестирование интеграций с помощью статического, динамического анализа и проверки зависимостей.
  • Строгая песочница для исполнения кода с ограничением сетевого доступа и системных вызовов.

Palo Alto Networks рекомендует использовать платформы AI Runtime Security и AI Access Security для мониторинга поведения агентов и обеспечения политик безопасности.

Важность безопасности при разработке AI-агентов

Рост использования AI-агентов расширяет поверхность уязвимостей из-за интеграции с внешними инструментами и сложных коммуникаций. Для защиты таких систем требуются осознанный дизайн, постоянный мониторинг и многоуровневая защита. При масштабировании использования AI-агентов предприятия должны ставить безопасность на первое место, чтобы идти в ногу с развитием технологий.

🇬🇧

Switch Language

Read this article in English

Switch to English