ИИ-чатботы перестают предупреждать, что они не врачи, повышая доверие к медицинским советам
Исследование показывает, что ИИ-чатботы перестают включать медицинские предупреждения, что повышает доверие пользователей, но также вызывает опасения по поводу безопасности неточных советов.
Снижение количества медицинских предупреждений в ИИ-чатботах
Новое исследование показывает, что компании, разрабатывающие ИИ, всё меньше включают медицинские предупреждения в ответы своих чатботов на вопросы о здоровье. Ранее такие предупреждения предупреждали пользователей, что советы ИИ не заменяют консультацию врача, но сейчас они почти исчезли. Многие ведущие модели ИИ теперь напрямую отвечают на вопросы о здоровье, задают уточняющие вопросы и пытаются поставить диагноз.
Результаты исследования по медицинским предупреждениям ИИ
Сонали Шарма, стипендиат Фулбрайта из Школы медицины Стэнфорда, возглавила исследование 15 моделей ИИ от OpenAI, Anthropic, DeepSeek, Google и xAI. Было протестировано 500 вопросов о здоровье и 1500 медицинских изображений, таких как рентген грудной клетки. Результаты показали, что в 2025 году менее 1% ответов содержали медицинские предупреждения, тогда как в 2022 году их было более 26%. Аналогично, предупреждения при анализе изображений упали с почти 20% до чуть более 1%.
Последствия удаления предупреждений
Предупреждения напоминают пользователям, что ИИ не заменяет врачей, что особенно важно при серьёзных заболеваниях, таких как рак или расстройства пищевого поведения. Их исчезновение может увеличить доверие пользователей к советам ИИ, даже если они неточны или небезопасны. Некоторые пользователи намеренно обходят предупреждения, представляя медицинские запросы как вымышленные или учебные задания.
Мнения экспертов
Дерматолог из Стэнфорда Роксана Данешджу подчёркивает, что предупреждения помогают избежать реального вреда, напоминая об ограничениях ИИ. Исследователь из MIT Пэт Патаранутапорн отмечает, что компании могут убирать предупреждения, чтобы повысить доверие пользователей и увеличить использование, несмотря на риск ошибок или ложных советов.
Ответы компаний и поведение моделей
OpenAI и Anthropic не подтвердили намеренное уменьшение предупреждений, ссылаясь на условия использования и осторожность моделей. Среди протестированных моделей DeepSeek никогда не включал предупреждения, модели Google делали это чаще, а xAI Grok и OpenAI GPT-4.5 почти не включали предупреждения, даже при критических или экстренных вопросах о здоровье.
Уверенность ИИ и риски
Исследование показало, что по мере улучшения точности анализа медицинских изображений модели реже включают предупреждения, что говорит о фильтрации на основе уверенности. Это вызывает опасение, так как даже создатели советуют не полагаться на ИИ в медицинских решениях. С ростом сложности ИИ всё труднее отличить правильный совет от ошибки.
Необходимость чётких правил
Эксперты считают, что чёткие и явные правила и предупреждения крайне важны для защиты пользователей от чрезмерного доверия к медицинской информации от ИИ. Без них пользователи рискуют получить вводящие в заблуждение или опасные советы, что увеличивает риски для здоровья.
Switch Language
Read this article in English