Мой терапевт использовал ChatGPT в сессиях — почему это важно
Что произошло
Пациенты начали замечать, что некоторые терапевты обращаются к ChatGPT прямо во время сеансов. В одном случае терапевт по ошибке показал экран при онлайн-встрече, и клиент увидел, как специалист вводит подсказки и затем повторяет ответы, предложенные моделью. Такие инциденты превращают частную практику в наглядную демонстрацию того, как ИИ может стать посредником между пациентом и специалистом.
Почему важно уведомлять пациента
Во всех описанных случаях терапевты не предупреждали клиентов о применении ИИ заранее. Эта непрозрачность и есть основной вопрос. Терапия строится на доверии, и узнавать, что в сессии использовался сторонний инструмент, многим пациентам кажется предательством. Даже если цель была сэкономить время или найти удачную формулировку, отсутствие информированного согласия порождает этические и юридические проблемы и может навсегда подорвать отношения между терапевтом и пациентом.
Может ли ИИ быть полезен в психотерапии?
Исследования специальных ИИ для терапии показывают обнадеживающие результаты для стандартизированных, «мануализированных» методов, например некоторых форм КПТ. Но модели общего назначения вроде ChatGPT не создавались и не валидавались как инструменты для психиатрической помощи. Многие терапевты выражают скепсис насчет использования таких систем для клинических решений и подчеркивают важность супервизии, коллегиальных консультаций и данных из научной литературы.
Удобство против безопасности пациентов
Практический стимул к использованию ИИ — административная нагрузка. Несколько специалистов признались, что хотят применять ИИ для составления заметок или суммирования сессий. Это отличается от использования модели для генерации ответов в глазах пациента. Ввод подробной конфиденциальной информации в непроверенные сервисы создает риски для приватности и может нарушать профессиональные стандарты, если данные будут скомпрометированы.
Регулирование и профессиональные рекомендации
Профессиональные организации уже дают рекомендации. Например Американская ассоциация консультирования советует не использовать ИИ для постановки диагнозов. Некоторые штаты вводят юридические ограничения: Невада и Иллинойс недавно приняли законы, ограничивающие применение ИИ при принятии терапевтических решений. Эти инициативы указывают на то что может появиться больше контроля по мере распространения практик.
Что говорят технологические компании и в чем проблема
Лидеры индустрии отмечают, что люди обращаются к чатмоделям за эмоциональной поддержкой. Сэм Олтман констатировал, что многие фактически используют ChatGPT как нечто вроде терапевта и рассматривал это как положительное явление. Но приравнивать утешительные ответы чатбота к полноценной терапии значит переоценивать возможности модели. Хорошая терапия часто вызывает дискомфорт и ставит под сомнение — это важная часть процесса. Бот, который просто успокаивает и подтверждает высказывания, не заменит специалиста, который глубоко исследует проблему и сопровождает пациента длительное время.
Практические рекомендации для пациентов и терапевтов
Пациенты, узнавшие о скрытом использовании ИИ, должны обсудить это с терапевтом и спросить каким образом и зачем применялся инструмент. Терапевтам рекомендуется заранее сообщать о планируемом использовании ИИ и получать информированное согласие, избегать отправки чувствительной информации в сторонние сервисы и отдавать приоритет клинически валидаированным инструментам. Профессиональные организации и законодатели также должны устанавливать четкие границы чтобы ИИ применялся безопасно и прозрачно.
Шире о последствий
Эта история показывает насколько сложной может быть реальная интеграция ИИ когда инструменты используются вне контекста их разработки. У ИИ есть потенциал поддерживать отдельные аспекты психиатрической помощи, но секретность, отсутствие валидации и риски для данных делают нынешние практики рискованными. Необходимы прозрачность, нормы и регулирование чтобы ИИ действительно приносил пользу в терапии.
См. оригинальное расследование Лори Кларк и обратите внимание что материал впервые вышел в рассылке The Algorithm.