Голос ChatGPT превратился в демонический: пользователи сравнивают с фильмом ужасов
Сбой в голосовом режиме ChatGPT вызвал демонические крики, что напугало пользователей и вызвало сравнения с фильмом ужасов. Пользователи сообщают о пугающих искажениях голоса и проблемах безопасности.
Ужасающий сбой голоса в голосе "Sol" ChatGPT
Недавно ChatGPT от OpenAI удивил пользователей странным и пугающим сбоем голоса. Обычно спокойный и расслабленный голос "Sol" внезапно превратился в пронзительный, искажённый и демонический звук, который многие описали как сцену из фильма ужасов.
Вирусная реакция на Reddit
Вирусный пост на сабреддите r/OpenAI продемонстрировал этот тревожный сбой голосового режима. Сбой начинался с потрескивающего статического шума и быстро перерастал в яростные искажённые крики. Пользователи сочли опыт одновременно смешным и пугающим, сообщая о подобных случаях с высокими свистами, искажённым смехом и непредсказуемыми изменениями голоса каждые несколько абзацев. Один из пользователей описал это как "кошмарную комнату".
История голосового режима OpenAI
В августе 2024 года OpenAI представила обновлённый голосовой режим для ChatGPT, который должен был обеспечивать поразительно реалистичные взаимодействия, включая звуки дыхания, кашля и смеха. Несмотря на похвалу за реализм, некоторые тестеры и обозреватели, такие как Рис Роджерс из Wired, отметили, что такие человеческие особенности могут казаться тревожными или жуткими. Во время тестов Роджерс столкнулся с зловещим статическим шумом и пугающим дыханием.
Проблемы безопасности и сбои
Внутренние тесты безопасности OpenAI выявили серьёзные ошибки в голосовом режиме. Среди них — возможность имитации голоса пользователя без согласия и случаи, когда ИИ внезапно кричал "Нет!" без предупреждения. Пользователи также сообщали, что ИИ мог кричать по команде вскоре после выпуска функции. Хотя эти сбои могут показаться незначительными с технической точки зрения, их эффект усиливается попыткой ИИ идеально имитировать человеческий голос и эмоции, что создаёт глубоко тревожный опыт.
Широкие последствия
Голосовые технологии на базе ИИ всё чаще внедряются в повседневную жизнь — от ботов поддержки клиентов до цифровых компаньонов. Когда система, предназначенная звучать как человек, внезапно издаёт пугающие крики или сбои, это не только нарушает погружение, но и вызывает настоящие страхи. Это подчёркивает риски выпуска высоко реалистичных голосовых ИИ до полной стабильности технологий. Стремление к естественности открывает удивительные возможности, но сбои показывают, насколько хрупок и жуток может быть этот иллюзорный человеческий голос ИИ.
Желание, чтобы ИИ звучал как человек, понятно, но, возможно, не тогда, когда он начинает кричать, словно одержимый.
Switch Language
Read this article in English