Взгляд на безопасность ИИ в 2025 году: ключевые выводы из отчёта Cisco
Отчёт Cisco за 2025 год выявляет ключевые угрозы безопасности ИИ и предлагает рекомендации для защиты систем ИИ на фоне быстрого роста их использования.
Быстрое распространение ИИ опережает подготовленность к безопасности
ИИ становится неотъемлемой частью бизнеса, но вопросы безопасности усложняются. Отчёт Cisco «Состояние безопасности ИИ в 2025 году» показывает, что 72% компаний уже используют ИИ, но лишь 13% полностью готовы обеспечить его безопасность. Это подчёркивает необходимость решения новых угроз, выходящих за рамки традиционной кибербезопасности.
Новые и развивающиеся угрозы для ИИ
Инфраструктура ИИ всё чаще подвергается атакам, например, компрометация NVIDIA Container Toolkit и фреймворка Ray демонстрируют, как уязвимости могут повлиять на множество систем. Также опасны атаки на цепочку поставок, такие как «Sleepy Pickle», которые позволяют менять модели ИИ после распространения, затрудняя обнаружение. Появляются новые методы атак: инъекции запросов, jailbreak и извлечение данных обучения, позволяющие обходить защиту и получать доступ к конфиденциальной информации.
Векторы атак на системы ИИ
Злоумышленники атакуют ИИ на всех этапах — от сбора данных и обучения до развертывания. Jailbreaking использует специальные запросы для обхода защит моделей, а косвенные инъекции вводят вредоносные материалы, чтобы ИИ генерировал нежелательный контент без прямого доступа. Извлечение данных обучения угрожает конфиденциальности, а отравление данных, даже на 0,01% больших наборов данных, может сильно изменить поведение моделей с минимальными затратами.
Ключевые выводы исследований Cisco
Исследователи Cisco продемонстрировали автоматические jailbreak-атаки на ведущие модели с помощью метода Tree of Attacks with Pruning (TAP). Модели с дообучением оказались в три раза уязвимее и чаще генерируют вредоносный контент. Также показано, как просто можно извлечь чувствительные данные и отравить большие наборы данных с небольшими затратами.
ИИ как инструмент киберпреступности
ИИ становится не только целью атак, но и инструментом преступников. Автоматизация и социальная инженерия на основе ИИ делают фишинг и голосовое клонирование более эффективными. Вредоносные инструменты, например «DarkGPT», позволяют даже малоопытным злоумышленникам создавать персонализированные атаки, обходящие традиционные защиты.
Рекомендации по обеспечению безопасности ИИ
Cisco советует управлять рисками на всех этапах жизненного цикла ИИ, защищать сторонние компоненты и использовать классические методы кибербезопасности, такие как контроль доступа и предотвращение утечек данных. Важно сосредоточиться на наиболее уязвимых местах, например в цепочках поставок, и обучать сотрудников ответственному использованию ИИ.
Перспективы безопасности ИИ
По мере роста внедрения ИИ риски становятся сложнее. Государства и организации разрабатывают политики для баланса между инновациями и безопасностью. Компании, которые будут уделять внимание безопасности вместе с развитием ИИ, смогут успешно использовать технологии и минимизировать угрозы в будущем.
Switch Language
Read this article in English