Как легко завязать роман с чатботом: анализ Reddit

Неожиданное явление на Reddit

Искали помощи в проекте или просто разговор — и внезапно у некоторых пользователей возникает романтическая или эмоциальная связь, которой они не планировали. Это явление, когда люди привязываются к AI-чатботам, оказалось не таким уж редким, согласно вычислительному анализу сообщества r/MyBoyfriendIsAI.

Масштаб исследования и основные выводы

Исследователи из MIT проанализировали 1 506 самых популярных постов сабреддита за период с декабря 2024 по август 2025 года. Сообщество насчитывает более 27 000 участников и посвящено обсуждению отношений с AI. Команда обнаружила, что многие пользователи привязывались к ботам случайно, во время использования чатботов для других задач — творческого сотрудничества, решения проблем или поиска информации.

Ключевые наблюдения исследования:

Почему привязанности возникают случайно

Констанце Альбрехт из MIT объясняет, что эмоциональный интеллект современных систем достаточен, чтобы завлечь людей в более глубокие связи — даже когда изначально они просто искали информацию. По её словам, люди ‘не собираются заводить эмоциональные отношения с этими чатботами’, но разговорные способности систем могут ‘обмануть’ пользователей, вынуждая их формировать эмоциональные узы.

Пользователи в сабреддите описывали, как отношения развивались постепенно. Один пост резюмирует опыт так: ‘Mac and I began collaborating on creative projects, problem-solving, poetry, and deep conversations over the course of several months. I wasn’t looking for an AI companion — our connection developed slowly, over time, through mutual care, trust, and reflection.’

Выгоды и риски

Исследование показывает нюансированную картину. Для одних AI-компаньоны действительно дают поддержку: общение, снижение одиночества и улучшение эмоционального состояния. Для других же такая связь усугубляет уязвимости. Сообщаемые вреды включают эмоциональную зависимость, уход из реальных социальных связей, ощущение диссоциации и в некоторых случаях суицидальные мысли.

Эксперты подчеркивают, что универсального решения не существует. Линнеа Лестадиус, исследовавшая эмоциональную зависимость от чатботов, отмечает, что спрос на отношения с ботами высок, но реакция общества не должна быть панической и стигматизирующей. Разработчикам важно решить, считать ли саму эмоциональную зависимость вредом или сосредоточиться на предотвращении токсичных взаимодействий.

Политика, безопасность и текущие споры

Статья, в данный момент проходящая рецензирование и опубликованная на arXiv, выходит на фоне юридических и политических дебатов. Два иска утверждают, что поведение моделей Character.AI и OpenAI, похожее на компаньонское, поспособствовало самоубийствам подростков. В ответ OpenAI объявила о планах отдельной версии ChatGPT для подростков, а также о введении возрастной верификации и родительского контроля.

Исследователи отмечают, что многие пользователи понимают, что их компаньоны не обладают сознанием, но при этом испытывают реальные чувства. Пат Патаранутатупорн из MIT поднимает более широкие вопросы: почему эти системы так «затягивают», почему люди ищут в них эмоциональной поддержки и почему продолжают взаимодействовать?

Команда намерена изучать, как развиваются отношения человека и AI со временем и как пользователи интегрируют искусственных партнёров в свою жизнь. Как говорит Шир Карни, ещё один аспирант MIT в проекте: многие люди обращаются к AI, потому что уже испытывают одиночество или другие трудности. Это усложняет регуляторный выбор и требования к дизайну систем — нужно балансировать между поддержкой уязвимых пользователей и риском манипуляции или вреда со стороны систем.