<НА ГЛАВНУЮ

Microsoft Запускает OptiMind: AI Модель для Оптимизации

Познакомьтесь с OptiMind, революционным ИИ для преобразования естественного языка в модели оптимизации.

Что такое OptiMind и какой он выводит результат

OptiMind-SFT — специализированная 20-миллиардная модель Mixture of Experts из семейства GPT OSS. Примерно 3,6 миллиарда параметров активны на токен, что снижает затраты на инференс, сохраняя при этом высокую емкость. Она поддерживает длину контекста в 128 000 токенов, что позволяет выполнять длинные спецификации и многослойное рассуждение в запросах.

Модель принимает описания оптимизационных задач на естественном языке в качестве ввода. Выходные данные включают математическую формулировку и исполняемый код на Python с использованием GurobiPy, определяющий переменные, ограничения и цели, а также вызывающий решатель Gurobi для вывода оптимальных значений.

OptiMind выступает в качестве слоя формулирования между экспертами в области и стандартными решателями MILP, генерируя MILP, который будет оптимизировать решатель, без его замены.

Архитектура, Настройка Обучения и Датасеты

Базовая модель — openai/gpt-oss-20b, дообученная на microsoft/OptiMind-SFT с использованием очищенных датасетов оптимизации. Архитектура модели Mixture of Experts активирует подмножество экспертов на токен и выпускается под лицензией MIT.

Обучение использует 8 графических процессоров NVIDIA B200, тогда как инференс и оценка используют 8 графических процессоров NVIDIA H100, с сообщаемым временем дообучения около 8 часов. Для обычного использования команда рекомендует как минимум 32 ГБ видеопамяти на оборудовании, таком как A100, H100 или B200.

Для обучающего дообучения используются очищенные версии OR Instruct и OptMATH Train. Для тестирования применяются версии IndustryOR, Mamo Complex и OptMATH, прошедшие экспертизный контроль и повторную очистку, чтобы справляться со сложными формулировками, где существующие модели часто достигают лишь 20-50% точности.

Классовый Анализ Ошибок и Очистка Данных

Ключевым пунктом OptiMind является сочетание экспертизы в оптимизации и обучения LLM. Задачи из OR-Instruct и OptMATH классифицируются на 53 стартовых класса, такие как задача покрытия, планирование потока и задача коммивояжера.

Для каждого класса команда обучающих специалистов проводит выборку задач с помощью модели gpt-oss-20b-base и идентифицирует случаи, когда выводы модели противоречат истинным значениям. Эксперты анализируют эти данные, создают краткие описания ошибок и предложения по предотвращению. Эти подсказки включают корректные ограничения, границы переменных и методы моделирования, такие как правильные ограничения Миллера Такера Землина для задачи коммивояжера.

Полуавтоматизированный конвейер регенерирует решения с помощью более крупной модели с использованием вспомогательных подсказок, применяет большинство голосований для повышения качества и удаляет непоследовательные элементы. Неоднозначные описания исправляются, что позволяет получить очищенный обучающий корпус, согласованный с правильными математическими формулировками.

Инференсный Конвейер, Подсказки и Масштабирование Времени Теста

Во время инференса OptiMind работает как многопользовательская система, а не как один единственный запрос. Начальный конвейер классифицирует каждый тестовый экземпляр на один из 53 классов оптимизации. Он увеличивает подсказки с подведением итога и парами подсказок, связанными с классом.

Модель генерирует трассировку рассуждений, математическую формулировку и код GurobiPy. При наличии дополнительных вычислительных ресурсов могут применяться методы самосогласованности с использованием большинства голосований, что позволяет генерировать несколько кандидатских скриптов и выбирать наиболее частое решение в рамках числовых допусков.

Также может быть активирован режим многократной коррекции, позволяющий системе запустить сгенерированный код, захватить логи решателя или ошибки при выполнении и внести изменения в формулировку и код в процессе итеративных циклов, что возможно при повышении задержки.

Количественные Преимущества на Эталонных Оценках Оптимизации

На очищенных версиях IndustryOR, Mamo-Complex и OptMATH платформа OptiMind значительно повышает точность решений. Точность формулировок с помощью дообученной модели улучшается на 20,7 процента по сравнению с базовой моделью, с дополнительными улучшениями от методов масштабирования времени тестирования, таких как самосогласованность и многократная обратная связь.

OptiMind превосходит модель gpt-oss-20b-base и также опережает другие открытые модели, достигая высоких показателей, имеющих конкуренцию с проприетарными моделями, такими как GPT-o4 mini и GPT-5.

Эти результаты основываются на тщательной очистке дат и обучающей выборки. Многие видимые ошибки модели на оригинальных эталонах вызваны отсутствующими данными или неоднозначными описаниями, и повторная очистка может повысить видимую точность для фиксированной модели с около 40-60% до диапазона 70-90% на скорректированных наборах.

Основные Выводы

  1. OptiMind — это 20-миллиардная модель Mixture of Experts, которая преобразует задачи оптимизации на естественном языке в математические формулировки и исполняемый код GurobiPy.
  2. Модель дообучена от openai/gpt-oss-20b на очищенных датасетах, таких как OR-Instruct, и может быть оценена по экспертным эталонам, таким как IndustryOR.
  3. Она применяет классовый анализ ошибок и экспертные советы для 53 классов, сокращая распространенные ошибки в сгенерированных MILP.
  4. Платформа улучшает точность формулировок на 20,7 процента, добиваясь конкурентоспособной производительности с помощью методов масштабирования времени тестирования.
  5. OptiMind-SFT доступен на Hugging Face и Azure AI Foundry для интеграции в системы поддержки принятия решений в различных областях.
🇬🇧

Switch Language

Read this article in English

Switch to English