FILTER MODE ACTIVE

#трансформер

Найдено записей: 11

#трансформер17.09.2025

MapAnything: один трансформер для метрической 3D-реконструкции по изображениям

'MapAnything — универсальная модель, которая напрямую предсказывает факторизованную метрическую 3D-геометрию из изображений и дополнительных сенсоров, демонстрирует SoTA результаты и доступна с открытым кодом.'

#трансформер07.08.2025

Google AI выпустила DeepPolisher: новый инструмент на базе глубокого обучения для точной коррекции ошибок в сборках геномов

Google AI и Институт геномики UC Santa Cruz выпустили DeepPolisher — инструмент глубокого обучения, значительно снижающий ошибки в сборках геномов и повышающий точность эталонных человеческих геномов.

#трансформер01.08.2025

Falcon-H1: прорывная гибридная модель, конкурирующая с гигантами на 70 миллиардов параметров

Falcon-H1 от TII — гибридная модель, объединяющая внимание и модели состояний, достигающая результатов, сопоставимых с ведущими LLM на 70 миллиардов параметров, с оптимизацией эффективности и масштабируемости.

#трансформер26.06.2025

Google DeepMind представила AlphaGenome: прорывная модель глубокого обучения для предсказания влияния мутаций в ДНК

Google DeepMind представила AlphaGenome — новую модель глубокого обучения, которая с высокой точностью предсказывает регуляторное влияние мутаций в ДНК по множеству биологических параметров, превосходя существующие решения.

#трансформер24.06.2025

BAAI представляет OmniGen2: прорывная унифицированная модель для мультимодального ИИ

BAAI представляет OmniGen2 — передовую унифицированную модель мультимодального ИИ, показывающую лучшие результаты в генерации изображений по тексту, редактировании и оценке контекстной согласованности среди открытых моделей.

#трансформер07.05.2025

Университет Фудань представляет Lorsa: разбор суперпозиции внимания в трансформерах с помощью разреженных механизмов

Исследователи из Университета Фудань разработали Lorsa — механизм разреженного внимания, позволяющий выделять атомарные единицы внимания, скрытые в суперпозиции трансформеров, что улучшает интерпретируемость языковых моделей.

#трансформер06.05.2025

NVIDIA выпустила Parakeet TDT 0.6B: сверхбыстрая и точная модель распознавания речи с открытым исходным кодом

NVIDIA представила Parakeet TDT 0.6B — открытую модель ASR, которая транскрибирует час аудио за одну секунду и достигает лучших показателей точности, устанавливая новый стандарт в индустрии.

#трансформер30.04.2025

Alibaba Представляет Qwen2.5-Omni-3B: Мощный Мультимодальный ИИ для Потребительских GPU с Вдвое Меньшим Использованием Видеопамяти

Alibaba представила Qwen2.5-Omni-3B — мультимодальную модель с 3 млрд параметров, которая снижает использование видеопамяти более чем на 50%, сохраняя производительность, близкую к 7 млрд модели, и подходит для потребительских GPU.

#трансформер25.04.2025

Забывающий Трансформер (FoX): Революция в Длинных Контекстах Языкового Моделирования с Эффективным Управлением Памятью

Исследователи из Mila и Университета Монреаля представили FoX — новую версию трансформера с обучаемыми forget gate, которая улучшает качество и эффективность моделирования длинных контекстов без потерь в скорости.