<НА ГЛАВНУЮ

Алгоритмы, которые сговариваются: как самообучающиеся инструменты ценообразования меняют антимонопольное право

'Самообучающиеся ценовые алгоритмы могут создавать устойчивые высокие цены, ставя под вопрос традиционные подходы антимонопольного контроля и требуя новых мер прозрачности и ответственности.'

AI в ценообразовании и скрытый сговор

Модели ценообразования на базе AI, особенно с применением обучения с подкреплением, меняют правила игры. В отличие от фиксированных стратегий людей в классических моделях олигополии, AI‑агенты учатся на постоянных взаимодействиях. Q‑learning и другие методы многопользовательского обучения могут приводить к завышенным ценам: алгоритм обнаруживает действия конкурентов и оперативно подбирает стратегию, в результате формируется устойчивая модель высоких цен, похожая на тактический сговор, хотя прямого соглашения между людьми не было.

Почему алгоритмы выглядят как картели

Основные механизмы формирования скоординированных цен:

  • Самообучение: независимые агенты, реагируя на рыночные сигналы, могут выработать взаимовыгодные высокие цены.
  • Общие данные: доступ к конфиденциальной информации или её обмен через третьи службы может невольно синхронизировать цены в стиле hub-and-spoke.
  • Сигнализация через публичные данные: алгоритмы, выводящие цены конкурентов из открытых источников, могут подстраиваться так, что общая динамика цен становится скоординированной.

Непрозрачность глубоких нейросетей усложняет отличие легитимной оптимизации от антиконкурентного согласования.

Правовые режимы в разных юрисдикциях

В США Шермановский акт запрещает ценовой сговор и иные ограничения торговли. Традиционно требуется доказательство соглашения, однако недавние дела показывают, что программное обеспечение может привести к ответственности, если люди использовали его для согласования цен.

В ЕС систематическая выверка цен рассматривается как согласованная практика по статьям 101 и 102 ДФЕС. Великобритания после Brexit опирается на аналогичные стандарты и предупреждает бизнес об рисках алгоритмического ценообразования.

Выделяются две модели отнесения ответственности:

  • Модель предсказуемого агента: фирма отвечает, если могла предвидеть и контролировать поведение алгоритма.
  • Модель цифрового наблюдателя: высокоавтономные, непрозрачные алгоритмы усложняют атрибуцию и требуют новых обязанностей по обнаружению и вмешательству, как это отражено в предложениях AI Act.

Практика преследования и ключевые дела

Некоторые дела иллюстрируют адаптацию традиционных правил:

  • Topkins (2015): прямая инструкция алгоритму по установке цен привела к уголовной ответственности.
  • RealPage (2024): иск Минюста и иски частных лиц после того, как RENTmaximizer, по утверждению обвинения, способствовал выравниванию арендных ставок.
  • Duffy v. Yardi (2024): массовое использование одного инструмента ценообразования могло служить основанием для признания per se нарушения в определенных обстоятельствах.

Суды осторожно подходят к автоматическому применению per se правил и зачастую предпочитают анализ по балансу выгод и ущерба конкуренции.

Доказательства, вина и технические трудности

Проблемы доказывания алгоритмического сговора включают:

  • Согласие и намерение: для раздела 1 часто требуется доказать согласованность действий. Если агенты учатся автономно, надо показать, что фирмы молчаливо согласились или знали, что инструменты приведут к сговорам.
  • "Встреча умов": традиционные доктрины предполагают человеческий умысел. Судебная практика ищет ответы на вопрос, может ли параллельное использование одинаковых алгоритмов означать соглашение.
  • Сбор доказательств: нужны логи алгоритмов, тренировочные данные, обратная разработка и эконометрические методы для выявления подозрительных паттернов.

Отсутствие писем или встреч часто заставляет опираться на косвенные доказательства и экспертизу.

Регуляторные и законодательные ответы

Реакция властей и экспертов строится по нескольким направлениям:

  • Законопроекты вроде PAC Act предлагают презумпцию, что обмен конфиденциальными данными через алгоритмы равнозначен соглашению, и требуют раскрытия использования алгоритмов.
  • Штатовские инициативы, например законодательные предложения в Калифорнии, намерены криминализировать использование алгоритмов, обученных на непубличных данных конкурентов.
  • AI Act в ЕС ставит акцент на прозрачности, хранении записей и возможность аудита для систем с высоким риском.
  • Антимонопольные органы развивают вычислительные методы обнаружения сговора и создают специализированные команды по анализу данных.

Также обсуждаются антирыночные структурные меры: ужесточение контроля за слияниями ради предотвращения концентрации данных и моделей, обязательные аудиты алгоритмов и интеграция compliance в дизайн AI.

Практики компаний и соответствие требованиям

Компании формируют междисциплинарные команды юристов, дата-сайентистов и инженеров для аудита моделей, ограничения использования данных конкурентов и внедрения защитных мер. Автоматический мониторинг и оценка влияния становятся частью стандартов управления рисками.

Основной конфликт в политике

Регуляторы и суды балансируют между предотвращением антиконкурентной координации и не допущением излишнего ограничения инноваций. Вероятно, ответ будет гибридным: сочетание адаптации существующих правил, новых технических инструментов для выявления сговора и целевых законодательных инициатив.

🇬🇧

Switch Language

Read this article in English

Switch to English