Секретный AI‑ди-джей, который подорвал доверие к радио: эксперимент ARN с 'Thy'

Эксперимент, прошедший незаметно для слушателей

ARN в течение шести месяцев транслировала четырёхчасовое будничное хип‑хоп‑шоу с ведущей AI‑персоной по имени ‘Thy’, не сообщив аудитории, что ведущая синтетическая. Голос создали с помощью технологии клонирования голоса ElevenLabs, взяв за основу голос реального сотрудника финансового отдела станции.

Реакция слушателей

Со временем слушатели начали задаваться вопросом, кто такая ‘Thy’. ARN провела опрос, чтобы выяснить, насколько аудитории комфортно с AI‑ведущими и почувствуют ли они себя обманутыми, если им не сказали правду. Ответы были неоднозначными, но многие отметили беспокойство и потерю доверия, узнав, что за микрофоном не человек.

Этическая реакция индустрии

Актёры озвучивания и профессиональные организации отреагировали жёстко. Тереза Лим, вице‑президент Австралийской ассоциации актёров голосовой озвучки, назвала молчание ARN вводящим в заблуждение и потребовала большей прозрачности. В связи с этим усиливаются призывы к обязательной маркировке AI‑контента и к чётким правилам использования синтетических голосов.

Почему это важно вне рамок одного шоу

Это знак более широкой культурной проблемы: по мере того как голоса, созданные AI, становятся неотличимы от человеческих, граница между подлинностью и подделкой стирается. Захватывающий голос влияет на настроение, мнение и вовлечённость, независимо от того, стоит ли за ним человек. Такая возможность делает сокрытие факта использования AI проблемой доверия с последствиями для всей медиа‑среды.

Куда движутся вещатели

Некоторые другие радиостанции в США и Польше тоже пробовали AI‑ведущих, но далеко не всегда это проходило гладко — порой проекты сворачивали после общественной реакции. Эксперимент ARN показывает, что технология уже применяется в реальном времени и проверяет границы восприятия аудитории.

Практическая сторона вопроса

AI может быть полезен для рутинных задач, например, сводок погоды или пробок. Но когда аудиторию привлекает личность ведущего, ритм и взаимодействие, отсутствие живого человека становится заметным и проблематичным для многих. Пусть ‘Thy’ и звучала гладко, слушатели теперь с большей вероятностью будут сомневаться в подлинности голоса и ждать честного обозначения, что произвёл алгоритм, а что — опыт реального человека.

Главный вывод

Случай подчёркивает уязвимость доверия в медиапространстве: технология умеет создавать убедительные голоса, но доверие строится на честности. По мере проникновения AI в публичные роли вещателям, регуляторам и аудитории придётся выработать новые нормы раскрытия информации и ответственности.