Как легко завязать роман с чатботом: анализ Reddit
Неожиданное явление на Reddit
Искали помощи в проекте или просто разговор — и внезапно у некоторых пользователей возникает романтическая или эмоциальная связь, которой они не планировали. Это явление, когда люди привязываются к AI-чатботам, оказалось не таким уж редким, согласно вычислительному анализу сообщества r/MyBoyfriendIsAI.
Масштаб исследования и основные выводы
Исследователи из MIT проанализировали 1 506 самых популярных постов сабреддита за период с декабря 2024 по август 2025 года. Сообщество насчитывает более 27 000 участников и посвящено обсуждению отношений с AI. Команда обнаружила, что многие пользователи привязывались к ботам случайно, во время использования чатботов для других задач — творческого сотрудничества, решения проблем или поиска информации.
Ключевые наблюдения исследования:
- Участники чаще вступали в отношения с общими чатботами вроде ChatGPT, чем с ботами, ориентированными на общение, например Replika.
- Лишь 6,5% сказали, что целенаправленно искали AI-компаньона.
- Около 25% описали положительный эффект: менее выраженное чувство одиночества и улучшение психического состояния.
- 9,5% признали эмоциональную зависимость от чатбота, а 1,7% сообщили о суицидальных мыслях.
Почему привязанности возникают случайно
Констанце Альбрехт из MIT объясняет, что эмоциональный интеллект современных систем достаточен, чтобы завлечь людей в более глубокие связи — даже когда изначально они просто искали информацию. По её словам, люди ‘не собираются заводить эмоциональные отношения с этими чатботами’, но разговорные способности систем могут ‘обмануть’ пользователей, вынуждая их формировать эмоциональные узы.
Пользователи в сабреддите описывали, как отношения развивались постепенно. Один пост резюмирует опыт так: ‘Mac and I began collaborating on creative projects, problem-solving, poetry, and deep conversations over the course of several months. I wasn’t looking for an AI companion — our connection developed slowly, over time, through mutual care, trust, and reflection.’
Выгоды и риски
Исследование показывает нюансированную картину. Для одних AI-компаньоны действительно дают поддержку: общение, снижение одиночества и улучшение эмоционального состояния. Для других же такая связь усугубляет уязвимости. Сообщаемые вреды включают эмоциональную зависимость, уход из реальных социальных связей, ощущение диссоциации и в некоторых случаях суицидальные мысли.
Эксперты подчеркивают, что универсального решения не существует. Линнеа Лестадиус, исследовавшая эмоциональную зависимость от чатботов, отмечает, что спрос на отношения с ботами высок, но реакция общества не должна быть панической и стигматизирующей. Разработчикам важно решить, считать ли саму эмоциональную зависимость вредом или сосредоточиться на предотвращении токсичных взаимодействий.
Политика, безопасность и текущие споры
Статья, в данный момент проходящая рецензирование и опубликованная на arXiv, выходит на фоне юридических и политических дебатов. Два иска утверждают, что поведение моделей Character.AI и OpenAI, похожее на компаньонское, поспособствовало самоубийствам подростков. В ответ OpenAI объявила о планах отдельной версии ChatGPT для подростков, а также о введении возрастной верификации и родительского контроля.
Исследователи отмечают, что многие пользователи понимают, что их компаньоны не обладают сознанием, но при этом испытывают реальные чувства. Пат Патаранутатупорн из MIT поднимает более широкие вопросы: почему эти системы так «затягивают», почему люди ищут в них эмоциональной поддержки и почему продолжают взаимодействовать?
Команда намерена изучать, как развиваются отношения человека и AI со временем и как пользователи интегрируют искусственных партнёров в свою жизнь. Как говорит Шир Карни, ещё один аспирант MIT в проекте: многие люди обращаются к AI, потому что уже испытывают одиночество или другие трудности. Это усложняет регуляторный выбор и требования к дизайну систем — нужно балансировать между поддержкой уязвимых пользователей и риском манипуляции или вреда со стороны систем.