<НА ГЛАВНУЮ

Осторожно: как клонирование голоса на ИИ превращает близких в мошенников

Мошенники используют клонирование голоса на ИИ, чтобы выдавать себя за близких и заставлять людей переводить деньги; эксперты советуют вводить безопасные слова и всегда перезванивать на известные номера для проверки

Новая волна телефонного мошенничества

Обычный день может перевернуться в один звонок, когда на другом конце провода звучит голос, точь-в-точь как у близкого человека. Мошенники используют технологии клонирования голоса на основе ИИ, чтобы вызвать панику и заставить людей принимать поспешные решения, которые обходятся им в тысячи.

Как работает схема

Современные алгоритмы могут воссоздать реалистичный голос по очень короткой записи — иногда достаточно нескольких секунд или одного слова из ролика в соцсетях. Преступники внедряют этот клонированный голос в заранее подготовленный сценарий: экстренная ситуация, юридическая проблема или просьба о деньгах. Поскольку голос совпадает с ожидаемым, эмоциональная реакция часто перебивает здравый смысл.

Почему это так убедительно

В стрессовой ситуации люди опираются на знакомые интонации, тембр и манеру речи. Голосовые модели анализируют высоту, ритм и тембр с поразительной точностью, особенно когда слушатель находится в состоянии тревоги. В реальных случаях родители и пожилые люди отправляли деньги после того, как услышали достоверно клонированные просьбы о помощи.

Масштаб и организация преступлений

Аналитики отмечают, что некоторые группы действуют как производственные линии: клонирование голоса — лишь один этап, к которому добавляются подмены номеров, сценарии социальной инженерии и адаптация под региональные особенности. Такой подход позволяет масштабировать атаки и точнее нацеливаться на конкретные группы.

Где терпят неудачу учреждения

Традиционные методы аутентификации в банках и контакт-центрах — простая голосовая проверка, стандартные контрольные вопросы или полагание на caller ID — всё чаще оказываются недостаточными. Центры обслуживания фиксируют случаи, когда звонящие на основе ИИ обходят устаревшие защиты, и некоторые финансовые организации подтверждают, что эти инструменты приводят к новым типам мошенничества.

Практические способы снизить риски

Некоторые семьи внедрили простые меры: заранее оговорённое «безопасное слово», которое знают только близкие; обязательный перезвон на известный номер; или вопросы, на которые реальный человек ответит вне сценария. Специалисты советуют подтверждать все срочные запросы через отдельный канал перед тем, как переводить деньги.

Работа правоохранительных органов

Полиция и подразделения по борьбе с мошенничеством пытаются развить цифровую криминалистику, адаптированную к преступлениям с голосами, созданными ИИ. Следователи пытаются нагнать быстро меняющиеся технологии, создавая специальные группы для расследования и преследования таких преступлений.

Человеческий фактор

Суть этих мошенничеств — эмоциональная манипуляция. Услышав испуганный или отчаянный голос близкого, человек реагирует мгновенно — этим и пользуются преступники. Главная защита — выработать привычку делать паузу, проверять информацию и не принимать финансовых решений по голосу в телефоне без дополнительной верификации.

Что важно помнить

Клонирование голоса на ИИ затрудняет доверие к услышанному, но простые правила проверки и повышенная осведомлённость могут снизить угрозу. Если звонок кажется срочным, сделайте лишнюю минуту для проверки — эта пауза может спасти ваши сбережения.

🇬🇧

Switch Language

Read this article in English

Switch to English