Сенаторы предлагают закон о проверке рисков ИИ под контролем Минэнерго

О чем законопроект

Сенаторы Джош Хоули и Ричард Блументаль представили инициативу под названием Artificial Intelligence Risk Evaluation Act. Она предполагает создание федеральной программы по оценке рисков, связанных с продвинутыми системами искусственного интеллекта. Программа планируется в Минэнергетике и будет собирать данные о возможных катастрофах: неконтролируемых системах, утечках безопасности и использовании ИИ в военных целях.

Как будет проходить оценка

Разработчики должны будут подавать свои модели на проверку до массового развертывания. Это значительный отход от привычной практики индустрии, ориентированной на быструю разработку и минимальный внешний контроль. Цель проверок — выявлять уязвимости и опасные сценарии отказа на ранних этапах и аккумулировать инцидентные данные для дальнейшей политики и повышения устойчивости.

Двухпартийная обеспокоенность и прецеденты

Особенно примечательно, что инициативу поддерживают представители разных партий. Хоули и Блументаль ранее уже сотрудничали по вопросам защиты авторов от копирования контента с помощью ИИ. Это показывает, что опасения по поводу ИИ выходят за рамки партийной риторики. К тому же недавно Калифорния приняла закон об безопасности потребителей и прозрачности в области ИИ, что говорит о том, что и штаты, и федеральные власти стремятся ввести регламенты.

Напряжение между безопасностью и инновациями

Администрация Белого дома предупреждает, что чрезмерное регулирование может замедлить инновации и ослабить позиции США в глобальной гонке ИИ, в особенности по отношению к Китаю. Производители чипов и технологические компании продолжают продвигать продвинутые решения и агентные модели, что подчеркивает конфликт между стремлением к конкурентоспособности и необходимостью безопасности. Законодатели пытаются найти компромисс, который защитит общество и одновременно не задушит исследования и разработку продуктов.

Возможные изменения в отрасли

Если закон пройдет, Минэнергетики может стать неожиданным регулятором в области безопасности ИИ. Обязательные предразвертывочные проверки наверняка изменят сроки разработки, процессы соответствия и способы документирования возможностей и рисков моделей. По крайней мере, предложение формализует надзор за ИИ и создаст более четкие ожидания по ответственности.

Почему это важно

Инициатива показывает, что разговор об ИИ перешел с технологических конференций на законодательный уровень. Независимо от судьбы законопроекта, он отражает нарастающее стремление предотвратить масштабный вред заранее. Вопрос в том, как ввести здравую систему контроля, которая защитит людей и при этом позволит полезным инновациям развиваться дальше.