VaultGemma 1B: приватная LLM на 1 миллиард параметров от Google с дифференциальной приватностью

Веха для приватных моделей

Google AI Research и DeepMind представили VaultGemma 1B — крупнейшую открытую модель с обучаемыми весами, обученную с нуля с использованием дифференциальной приватности (DP). Релиз показывает, что строгие гарантии приватности можно применять уже на этапе предобучения, а не только при дообучении.

Зачем LLM нужны методы дифференциальной приватности

Модели, обученные на данных масштаба веба, могут запоминать и воспроизводить чувствительную или персональную информацию. Дифференциальная приватность ограничивает вклад отдельного примера в поведение модели, уменьшая риск извлечения приватных данных. Применение DP на уровне предобучения защищает модель с основания, снижая утечки на всех последующих этапах использования.

Архитектура и обучающие данные

VaultGemma наследует архитектуру семейства Gemma с оптимизациями для приватного обучения:

Для уменьшения вычислительных затрат при DP длина последовательности была сокращена до 1 024 токенов, что позволило использовать большие эффективные батчи.

Модель обучалась на том же датасете в 13 триллионов токенов, что и Gemma 2: тексты с веба, код и научные статьи. Данные прошли фильтрацию для удаления небезопасного содержимого, снижения экспозиции персональных данных и предотвращения пересечения с тестовыми наборами.

Как была применена дифференциальная приватность

Использовался DP-SGD с обрезкой градиентов по отдельным примерам и добавлением гауссовского шума. Реализация опирается на JAX Privacy и включает оптимизации для масштабируемости:

Модель достигла формальной гарантии DP примерно (ε ≤ 2.0, δ ≤ 1.1e−10) на уровне последовательности (1 024 токена).

Новые законы масштабирования для приватного обучения

DP изменяет соотношения между размером модели, шумом и вычислительными ресурсами. Команда VaultGemma разработала специфические законы масштабирования для DP:

Это позволило точно прогнозировать достижимую функцию потерь и эффективно расходовать ресурсы на TPUv6e.

Конфигурации обучения и результаты

VaultGemma обучалась на 2 048 TPUv6e с GSPMD-партиционированием и MegaScale XLA. Ключевые параметры:

Достигнутая потеря оказалась в пределах 1% от предсказаний DP scaling law, что подтверждает точность методики.

Производительность и компромиссы

По академическим бенчмаркам VaultGemma уступает неприваванным аналогам, но показывает практическую полезность:

Это означает, что современные DP-модели сопоставимы с неприваванными моделями нескольких лет назад. Важно, что тесты на запоминание не выявили утечек из обучающих данных в VaultGemma, в отличие от неприваванных релизов Gemma.

Значение для сообщества

VaultGemma 1B показывает, что предобучение с дифференциальной приватностью в масштабе возможно и практично. Несмотря на разрыв в полезности по сравнению с неприваванными моделями, открытый релиз модели и технической документации дает исследователям и разработчикам платформу для дальнейшего улучшения приватных моделей.

Подробный технический отчет доступен по ссылке: https://services.google.com/fh/files/blogs/vaultgemma_tech_report.pdf

Репозитории с кодом, ноутбуками и учебными материалами опубликованы на GitHub и Hugging Face.