<НА ГЛАВНУЮ

Как мошенники используют ИИ в банковском мошенничестве

Искусственный интеллект меняет методы банковского мошенничества, позволяя создавать дипфейки, синтетические личности и персонализированные атаки. Финансовым учреждениям необходимы современные меры защиты для борьбы с новыми угрозами.

Мошенничество с помощью дипфейков и ИИ

Искусственный интеллект позволяет мошенникам обходить системы защиты от подделок и голосовой верификации, создавая поддельные документы и удостоверения личности с высокой степенью правдоподобия. В 2024 году британская компания Arup потеряла около 25 миллионов долларов после того, как мошенники с помощью дипфейков, сымитировавших руководителей компании, обманули сотрудника и заставили его перевести деньги.

Дипфейки создаются с помощью алгоритмов генерации и дискриминации, которые создают цифровые копии лица и голоса человека. Для создания дипфейка достаточно одной минуты аудио и одной фотографии. Такие видео и аудио могут быть как заранее записанными, так и живыми.

Поддельные предупреждения о мошенничестве, созданные ИИ

Генеративные модели могут массово рассылать поддельные предупреждения о мошенничестве. Например, при взломе сайта электроники ИИ может звонить клиентам, представляясь банком, и сообщать, что их транзакции подозрительны. В ходе звонка мошенники просят данные счетов и ответы на секретные вопросы, чтобы «подтвердить личность».

ИИ быстро анализирует большие объемы данных, что позволяет сделать такие звонки максимально убедительными и правдоподобными.

Персонализация и захват аккаунтов

Мошенники зачастую используют украденные данные для входа в аккаунты и меняют пароли, резервные почты и настройки многофакторной аутентификации, чтобы заблокировать реальных владельцев. ИИ добавляет непредсказуемые элементы, усложняя защиту.

ИИ может выбирать время атак в периоды высокой активности, например, в Черную пятницу, и настраивать сообщения под привычки и предпочтения пользователей. Это повышает шансы на успешное мошенничество. Кроме того, ИИ генерирует большое количество персонализированных и убедительных писем и сообщений.

Фейковые сайты с помощью генеративного ИИ

Генеративные технологии позволяют быстро создавать фальшивые финансовые сайты с реалистичным дизайном и динамическим контентом. Мошенники могут клонировать инвестиционные платформы, оснащая их живым чатом с ИИ-советником.

В одном случае была клонирована платформа Exante, жертвы вкладывали деньги, думая, что инвестируют легально, но средства переводились на счет JPMorgan Chase. Представитель Exante сообщил о множестве подобных случаев, подчеркнув, что мошенники используют ИИ для скорости и масштабности атак.

Обход систем проверки живости

Системы проверки живости используют биометрию для подтверждения личности, блокируя использование старых фото или видео. Но ИИ-дипфейки могут обмануть эти системы, позволяя мошенникам выдавать себя за других или создавать фальшивые профили для отмывания денег.

Готовые инструменты обхода таких систем продаются за несколько тысяч долларов, что облегчает доступ к сложным методам мошенничества.

Синтетические личности и мошенничество с новыми аккаунтами

ИИ помогает создавать синтетические личности, комбинируя реальные и вымышленные данные (например, настоящий СНИЛС с фальшивым именем). Эти личности имеют подделанные финансовые истории, что затрудняет их обнаружение системами проверки клиентов.

Сложные алгоритмы управляют такими аккаунтами, имитируя человеческое поведение — своевременные платежи, заявки на кредиты — чтобы избежать подозрений и максимизировать прибыль мошенников.

Защита банков и клиентов

Пользователям рекомендуется использовать сложные пароли и осторожно обращаться с личной информацией. Банкам следует усилить защиту:

  1. Многофакторная аутентификация: Биометрия уязвима, поэтому MFA — важный барьер. Клиентов нужно обучать не раскрывать коды.

  2. Улучшение процедур KYC: Использование продвинутых методов для выявления синтетических личностей, включая специальные запросы к генеративным моделям.

  3. Поведенческая аналитика: Машинное обучение помогает замечать изменения в поведении, например, движения мыши или время доступа, которые сложно подделать ИИ.

  4. Полные оценки рисков: Проверка данных при открытии аккаунтов, поиск несоответствий и недавно созданных профилей помогает предотвратить массовое мошенничество.

ИИ снизил технический порог для мошенников, что требует от финансовых учреждений быть предельно внимательными и применять передовые методы защиты для сохранения безопасности клиентов и средств.

🇬🇧

Switch Language

Read this article in English

Switch to English