Mistral AI представляет Devstral 2507: мощные модели для работы с кодом
Mistral AI выпустила серию Devstral 2507 с моделями Devstral Small 1.1 и Devstral Medium 2507, оптимизированными для анализа и автоматизации кода с балансом между производительностью и стоимостью.
Обзор моделей Devstral 2507
Mistral AI совместно с All Hands AI выпустили обновлённые крупные языковые модели, ориентированные на разработчиков, под названием Devstral 2507. В релиз вошли две модели — Devstral Small 1.1 и Devstral Medium 2507, созданные для агентного анализа кода, синтеза программ и выполнения структурированных задач в больших программных репозиториях. Эти модели оптимизированы по производительности и стоимости, что делает их удобными для применения в инструментах для разработчиков и системах автоматизации кода.
Devstral Small 1.1: открытая и эффективная
Devstral Small 1.1 (devstral-small-2507) базируется на фундаментальной модели Mistral-Small-3.1 и содержит около 24 миллиардов параметров. Она поддерживает контекст длиной до 128 тысяч токенов, что позволяет обрабатывать многократные файлы кода и длинные запросы, типичные для рабочих процессов разработки. Модель дообучена для структурированного вывода, включая XML и функцию вызова, что обеспечивает совместимость с агентскими фреймворками, такими как OpenHands. Это делает её подходящей для навигации по коду, многошаговых правок и поиска кода. Лицензия Apache 2.0 позволяет использовать модель в исследовательских и коммерческих целях.
Производительность на SWE-Bench
Devstral Small 1.1 набирает 53.6% по тесту SWE-Bench Verified, который оценивает способность модели создавать корректные патчи для реальных проблем на GitHub. Это заметный прогресс по сравнению с версией 1.0 и превосходит другие открытые модели схожего размера. Тестирование проводилось на платформе OpenHands, обеспечивающей стандартную среду для оценки кодовых агентов. Модель сочетает в себе приемлемый размер, стоимость вывода и качество рассуждений.
Развертывание и локальный вывод
Модель доступна в нескольких форматах, включая квантизированные версии GGUF, совместимые с llama.cpp, vLLM и LM Studio. Это позволяет запускать модель локально на мощных GPU, например RTX 4090, или на устройствах Apple Silicon с 32 ГБ ОЗУ и выше. Такой подход удобен для разработчиков и команд, которые хотят работать без зависимости от облачных API. Кроме того, Mistral предоставляет API с ценой $0.10 за миллион входных и $0.30 за миллион выходных токенов.
Devstral Medium 2507: высокая точность через API
Devstral Medium 2507 не является открытой и доступна только через API Mistral или по корпоративным соглашениям. Модель поддерживает такой же контекст в 128 тысяч токенов, но демонстрирует более высокую производительность — 61.6% в SWE-Bench Verified. Это превосходит коммерческие аналоги, включая Gemini 2.5 Pro и GPT-4.1. Улучшенная способность к рассуждениям на больших контекстах делает её идеальной для работы с большими монорепозиториями и зависимостями между файлами. Стоимость API — $0.40 за миллион входных и $2.00 за миллион выходных токенов. Для корпоративных клиентов доступна дополнительная настройка модели.
Сценарии использования и интеграция
Devstral Small подходит для локальной разработки, экспериментов и включения в клиентские инструменты, где важны контроль и экономичность. Devstral Medium ориентирована на производственные задачи, требующие высокой точности и стабильности при работе с кодом, несмотря на более высокую стоимость. Обе модели поддерживают интеграцию с агентскими фреймворками, такими как OpenHands, обеспечивая структурированный вывод и функцию вызова для автоматизации тестирования, рефакторинга и исправления ошибок. Это позволяет использовать модели в плагинах IDE, ботах контроля версий и CI/CD.
Итог
Релиз Devstral 2507 предлагает выбор между доступной открытой моделью с хорошей производительностью и более мощной, но платной моделью для API. Они охватывают разные этапы жизненного цикла разработки программного обеспечения — от прототипирования до корпоративного внедрения.
Подробности доступны на официальном сайте Mistral AI.
Switch Language
Read this article in English