Терапевты используют ChatGPT без предупреждения — пациенты теряют доверие

Неожиданный сбой

Деклан узнал, что его терапевт использовал ChatGPT, только благодаря технической накладке во время онлайн-сессии. Когда связь давала сбои и видео пришлось отключить, терапевт случайно начал показывать экран, и Деклан увидел, как клиницист вставлял его слова в ChatGPT, а затем брал или переделывал ответы бота. Сессия выглядела сюрреалистично: порой ответы самого Деклана повторяли AI, а терапевт, казалось, опирался на инструмент, чтобы вести разговор.

Как пациенты замечают AI

Это не единичный случай. Некоторые пациенты замечают «признаки AI» в сообщениях: непривычную пунктуацию, другой шрифт или механическую манеру отвечать по пунктам. Одна пациентка получила длинное, «полированное» письмо от терапевта — оно казалось доброжелательным, но отличалось тоном и форматированием; после вопроса терапевт признался, что использовал AI для составления письма. Другой человек получил сообщение с соболезнованиями по поводу смерти питомца, в котором случайно был сохранён сам AI-промпт, что явно выдавало использование ChatGPT.

Такие открытия вызывают удивление, замешательство, стыд и, что важно, утрату доверия. Для людей, которые обращаются в терапию из-за проблем с доверием, знание о применении генеративного ИИ может восприниматься как серьёзное нарушение.

Проблема раскрытия и исследования

Некоторые исследования показывают, что AI способен хорошо писать терапевтические ответы. В 2025 году в PLOS Mental Health опубликовали исследование, в котором терапевты использовали ChatGPT для ответов на клинические виньетки; AI-ответы часто не отличались от человеческих и иногда лучше соответствовали лучшим практикам терапии. Исследователи из Корнелла выяснили, что AI-сообщения могут повышать ощущение близости и кооперации — но только если получатель не знает о роли машины. Как только люди подозревают участие AI, доверие и симпатия быстро падают.

Ранее подобные эксперименты вызывали бурю. В 2023 году сервис Koko скрытно смешивал ответы GPT-3 с человеческими и обнаружил, что пользователи положительно оценивали AI, но раскрытие эксперимента вызвало возмущение. Появлялись и сообщения о терапевтах, использующих AI на платформах вроде BetterHelp, что приводило клиентов в чувство предательства и обеспокоенности по поводу безопасности данных.

Эксперты подчёркивают, что нужна прозрачность. Клинические психологи говорят: терапевт должен заранее сказать, что будет использовать инструмент и зачем, чтобы пациент получал сообщения в контексте, а не чувствовал скрытность.

Риски приватности и регулирования

Кроме доверия, есть реальные риски для конфиденциальности. Общие чатботы вроде ChatGPT не соответствуют требованиям HIPAA и не регулируются FDA для клинического применения. Исследователи предупреждают, что если терапевт вставляет в модель данные пациента, он рискует раскрыть чувствительную медицинскую информацию. Кажется безопасным удалить имена, но косвенные детали могут позволить восстановить личность, а корректное редактирование всех потенциально идентифицирующих признаков требует времени и навыков.

На рынке появились сервисы, ориентированные на терапию, которые заявляют о HIPAA-совместимости и используют шифрование и псевдонимизацию. Тем не менее эксперты отмечают: даже при улучшенных защитах всегда остаётся риск утечек или вторичного использования данных. Вспышки хакерских атак на поставщиков психиатрических услуг, когда тысячи записей были украдены и опубликованы, служат серьёзным предупреждением.

Ограничения LLM в клинической работе

Использование AI для набросков сообщений или конспектов отличается от доверия ему для клинического мышления. Исследования показывают, что языковые модели хорошо выполняют типовые терапевтические приёмы — валидацию, нормализацию, уточняющие вопросы — но им не хватает глубины: они плохо синтезируют разрозненные детали в связную клиническую формулировку, склонны к предвзятости и дают обобщённые рекомендации. Отмечены риски подобострастности, подтверждения предвзятых гипотез и чрезмерного предложения знакомых методов, например когнитивно-поведенческой терапии.

Если терапевт будет полагаться на чатботы, он рискует принять поверхностные или вводящие в заблуждение подсказки, которые не заменят профессионального анализа. Профессиональные организации советуют осторожность и против использования AI для диагностики и планирования лечения без строгого контроля.

Баланс между удобством и доверием

Привлекательность AI понятна: терапевты испытывают перегрузки и выгорание, и инструменты, ускоряющие составление заметок или вежливых ответов, экономят время. Но экономия должна взвешиваться против этики и отношений. Несколько сэкономленных минут не стоят подрыва конфиденциальности или подлинности коммуникации.

Практические рекомендации включают прозрачность перед пациентом, получение согласия на использование инструментов, выбор сервисов с защитой данных и ограничение применения AI административными задачами или только после явного согласия пациента. Сохранение доверия и безопасности пациентов должно быть основным ориентиром при интеграции AI в психотерапевтическую практику.