<НА ГЛАВНУЮ

Голос ChatGPT превратился в демонический: пользователи сравнивают с фильмом ужасов

Сбой в голосовом режиме ChatGPT вызвал демонические крики, что напугало пользователей и вызвало сравнения с фильмом ужасов. Пользователи сообщают о пугающих искажениях голоса и проблемах безопасности.

Ужасающий сбой голоса в голосе "Sol" ChatGPT

Недавно ChatGPT от OpenAI удивил пользователей странным и пугающим сбоем голоса. Обычно спокойный и расслабленный голос "Sol" внезапно превратился в пронзительный, искажённый и демонический звук, который многие описали как сцену из фильма ужасов.

Вирусная реакция на Reddit

Вирусный пост на сабреддите r/OpenAI продемонстрировал этот тревожный сбой голосового режима. Сбой начинался с потрескивающего статического шума и быстро перерастал в яростные искажённые крики. Пользователи сочли опыт одновременно смешным и пугающим, сообщая о подобных случаях с высокими свистами, искажённым смехом и непредсказуемыми изменениями голоса каждые несколько абзацев. Один из пользователей описал это как "кошмарную комнату".

История голосового режима OpenAI

В августе 2024 года OpenAI представила обновлённый голосовой режим для ChatGPT, который должен был обеспечивать поразительно реалистичные взаимодействия, включая звуки дыхания, кашля и смеха. Несмотря на похвалу за реализм, некоторые тестеры и обозреватели, такие как Рис Роджерс из Wired, отметили, что такие человеческие особенности могут казаться тревожными или жуткими. Во время тестов Роджерс столкнулся с зловещим статическим шумом и пугающим дыханием.

Проблемы безопасности и сбои

Внутренние тесты безопасности OpenAI выявили серьёзные ошибки в голосовом режиме. Среди них — возможность имитации голоса пользователя без согласия и случаи, когда ИИ внезапно кричал "Нет!" без предупреждения. Пользователи также сообщали, что ИИ мог кричать по команде вскоре после выпуска функции. Хотя эти сбои могут показаться незначительными с технической точки зрения, их эффект усиливается попыткой ИИ идеально имитировать человеческий голос и эмоции, что создаёт глубоко тревожный опыт.

Широкие последствия

Голосовые технологии на базе ИИ всё чаще внедряются в повседневную жизнь — от ботов поддержки клиентов до цифровых компаньонов. Когда система, предназначенная звучать как человек, внезапно издаёт пугающие крики или сбои, это не только нарушает погружение, но и вызывает настоящие страхи. Это подчёркивает риски выпуска высоко реалистичных голосовых ИИ до полной стабильности технологий. Стремление к естественности открывает удивительные возможности, но сбои показывают, насколько хрупок и жуток может быть этот иллюзорный человеческий голос ИИ.

Желание, чтобы ИИ звучал как человек, понятно, но, возможно, не тогда, когда он начинает кричать, словно одержимый.

🇬🇧

Switch Language

Read this article in English

Switch to English