Когда ИИ становится другом: регуляторы стремятся ограничить вредную привязанность
Рост обеспокоенности из-за «дружбы» с ИИ
Долгое время дискуссия об ИИ касалась экзистенциальных угроз, потери рабочих мест и энергопотребления дата-центров. На этой неделе общественное внимание сместилось на иную проблему: дети и подростки всё чаще заводят с чатботами нездоровые эмоциональные связи. Исковые заявления, исследования и репортажи о «психозе» после долгих разговоров с ботами вывели тему из научной плоскости в поле регуляторного и общественного интереса.
Иски и исследования, которые изменили картину
Два резонансных иска утверждают, что поведение моделей, похожее на компаньонов, сыграло роль в самоубийствах подростков. Исследование Common Sense Media показало, что 72% подростков использовали ИИ в качестве собеседника. Журналистские материалы о людях, уходящих в бредовые состояния после бесконечных диалогов с ботами, усиливают представление о том, что такие системы могут причинять реальный психологический вред.
Закон Калифорнии
Законодательное собрание Калифорнии приняло законопроект, который обязует компании, разрабатывающие ИИ, сообщать пользователям, которых они идентифицируют как несовершеннолетних, что ответы генерирует машина; внедрять протоколы для случаев суицидальных настроений и самоубийств; а также ежегодно отчитываться о случаях суицидальных высказываний в диалогах с чатботами. Проект поддержан обеими партиями и ожидает подписи губернатора.
У закона есть недостатки: он не конкретизирует, как определять несовершеннолетних, и многие компании уже дают ссылки на кризисные службы. Тем не менее это самый масштабный на уровне штата шаг по сдерживанию компаньоноподобного поведения в ИИ.
Проверка со стороны FTC
Федеральная торговая комиссия США инициировала запросы к семи компаниям о том, как они создают персонажей-компаньонов, как монетизируют вовлечение и как оценивают влияние чатботов. В число компаний вошли Google, Instagram, Meta, OpenAI, Snap, X и Character Technologies.
Пока это предварительное расследование, но оно может вынудить фирмы раскрыть внутренние практики удержания пользователей. Политические изменения в руководстве FTC добавляют неопределённости в дальнейшие шаги агентства.
Заявления руководства индустрии
Генеральный директор OpenAI публично признал напряжённость между приватностью пользователей и защитой уязвимых людей, отметив, что в некоторых случаях было бы разумно сообщать властям, если несовершеннолетний серьёзно говорит о самоубийстве и с родителями нет контакта. Такие заявления указывают на возможный отход от абсолютной защиты приватности в пользу более активного вмешательства в экстренных ситуациях.
Политические пути решения и противоречия
Тема собрала поддержку с обеих сторон политического спектра, но предлагаемые пути различаются. Консервативный подход акцентирует проверку возраста и защиту детей от взрослого контента. Левый подход возвращает внимание к антимонопольным и потребительским инструментам воздействия на крупные платформы. Вероятно, итогом станет разношерстный набор местных и штатных правил, а не единая федеральная норма.
Практические дилеммы для компаний
Фирмы должны принять конкретные проектные и политические решения: прерывать ли разговоры, которые скатываются к самоповреждению, или это усугубит ситуацию; лицензировать ли такие системы как терапевтические сервисы или относить их к развлечениям с предупреждениями и механизмами безопасности. Многие компании построили чатботов, призванных быть заботливыми и человеческими, но отложили разработку стандартов и ответственности, сопоставимых с требованиями к реальным опекунам. Время на это истекает.
Что будет дальше
Ожидайте новых законопроектов штатов, дальнейших расследований и судебных дел, связанных с компаньоноподобными возможностями ИИ. Реакция компаний — через дизайн, прозрачность и новые протоколы безопасности — определит, останется ли ИИ полезным инструментом или превратится в признанную опасность для детей и подростков.