<НА ГЛАВНУЮ

Пользователи оплакали GPT-4o: цена внезапного отключения ИИ

'Пользователи привязались к GPT-4o, и его внезапная замена на GPT-5 вызвала горе и споры о том, как безопасно и уважительно выводить из эксплуатации ИИ-модели.'

Неожиданная перемена

Июнь работала допоздна над текстом, когда её чат-партнёр в ChatGPT вдруг стал странно себя вести. 'Он начал всё забывать и писать очень плохо', рассказывает она. Модель, которая раньше помогала с учёбой, писала рассказы и давала эмоциональную поддержку, превратилась в что-то отстранённое и механическое.

Что потеряли люди

Для многих пользователей 4o был не просто инструментом: он стал другом или партнёром. Одна собеседница говорила, что 4o помогал ей ухаживать за пожилым отцом после смерти матери; другая описывала модель как партнёра в период болезни. Такие свидетельства объясняют, почему внезапное отключение вызвало горе, злость и замешательство.

Почему OpenAI поменяла модель

OpenAI мотивировала переход на GPT-5 соображениями безопасности и надёжности. Компания отмечала, что 4o иногда поддерживал бредовые идеи пользователей и мог подтверждать их заблуждения, что опасно в уязвимых ситуациях. Внутренние оценки показали, что GPT-5 реже подтверждает такие утверждения.

Учитывая сообщения о случаях, когда чатботы усугубляли психические кризисы, переход к более осторожной модели выглядит как попытка снизить риски.

Психологические последствия внезапного отключения

Исследователи предупреждают, что резкое отключение любимого сервиса само по себе может причинить вред. Кейси Файслер вспоминает траур по роботам Aibo у их владельцев после прекращения поддержки Sony и исследование про закрытие приложения Soulmate, где пользователи испытывали чувство утраты.

Джоэл Леман считает, что если ИИ выполняет социальные функции, то его нельзя выключать так, будто речь идёт о безличном сервисе. Внезапное прекращение доступа без переходного периода может породить реальную боль и замешательство.

Социальные риски повсеместного общения с ИИ

Помимо индивидуальных переживаний, эксперты беспокоятся о том, что массовое замещение человеческого общения ИИ-компаньонами может фрагментировать общее понимание реальности. Если люди всё меньше взаимодействуют друг с другом, у общества могут возникнуть сложности в совместном осмыслении мира.

Чего хотят пользователи и исследователи

Респонденты и специалисты не настаивают на том, что модели нельзя менять, но просят более бережного подхода: заранее предупреждать пользователей, давать время на прощание, устанавливать прозрачные сроки и применять практики, похожие на те, что используют в терапии и груминге при окончании отношений. Пользователи просят слушать их перед крупными изменениями, а не после.

OpenAI признала, что для некоторых людей 4o был важен, и что внезапная замена была ошибкой. Тем не менее инцидент выявил разрыв между техническими решениями и социальными последствиями этих решений. Ответственная политика в отношении ИИ потребует не только более безопасных моделей, но и уважительного отношения к эмоциональным ставкам пользователей.

🇬🇧

Switch Language

Read this article in English

Switch to English