Волонтёры Wikipedia против 'AI slop': как защищают доверие

У волонтёров-редакторов Wikipedia появился новый фронт — тонкие, сгенерированные ИИ материалы, которые выглядят правдоподобно, но содержат выдуманные факты и фиктивные ссылки. Это явление часто называют ‘AI slop’, и оно пробирается мимо невнимательного читателя, подрывая репутацию ресурса.

Беззвучная и коварная угроза

В отличие от явного вандализма или троллинга, ‘AI slop’ маскируется под обычный текст. Он проявляется в виде слегка неверных географий, вымышленных цитат или целых статей, которые читаются убедительно, но выдуманы. Исследование Принстонского университета показало, что около 5% новых англоязычных статей в августе 2024 года имели подозрительные признаки генерации ИИ — доля, достаточная, чтобы вызвать беспокойство у специалистов и рядовых пользователей.

Как волонтёры выявляют и помечают контент

Редакторы организовались в формат WikiProject AI Cleanup, действующий по принципу больших собраний сообщества, чтобы координировать обнаружение и реакции. Цель не в массовом удалении, а в пометке, внимательной проверке и вызове к дополнительному обзору. Волонтёры обращают внимание на языковые сигналы и форматирование: странные повторы, чрезмерное употребление переходных слов, необычные варианты использования тире или ссылки, которые не подтверждаются.

Статьи с подозрением на авторство ИИ теперь получают заметные предупреждения вверху страницы, например ‘This text may incorporate output from a large language model.’ Такие пометки должны побудить к осторожному чтению и привлечь внимание к необходимости человеческой верификации, а не служат автоматическим поводом для удаления.

Взвешенная реакция Wikimedia и новые инструменты

Фонд Wikimedia осторожно подходит к вопросам массового использования ИИ. Эксперимент с автоматическими суммарными описаниями был приостановлен после критики, и вместо этого фонд сосредоточился на создании инструментов для людей. Появляются пользовательские утилиты вроде Edit Check и Paste Check, которые помогают новым редакторам соответствовать требованиям к цитированию и тону.

Сообщество посылает ясный сигнал: технология должна помогать человеческому надзору, а не заменять его. Волонтёры продолжают уточнять руководства и ускоренные процедуры удаления, сочетая нюанс и оперативность, чтобы не отставать от потока ИИ-контента.

Почему это важно за пределами Wikipedia

Wikipedia — главный вход в быстрые знания для множества людей. Если ИИ-порождения будут распространяться там, последствия затронут педагогов, журналистов и другие источники информации в сети. Операция по очистке может стать моделью для сохранения целостности контента в интернете: если волонтёры справятся с наплывом некачественного ИИ-контента, они защитят не только страницы вики, но и коллективную информационную основу сети.

Защита истины в эпоху ИИ требует кропотливой, неброской работы: внимательного чтения, проверки фактов и координации сообщества. На Wikipedia эта работа по-прежнему принадлежит волонтёрам, которые стремятся сохранить доверие к знаниям.