
Mistral AI представила семейство моделей Mistral 3 — мультиязычные и мультимодальные модели нового поколения, разработанные для повышения эффективности при разработке и внедрении решений. Компания выпустила открытые веса моделей, чтобы упростить доступ для разработчиков и предприятий.
В линейке есть как компактные плотные модели, так и новая система mixture-of-experts под названием Mistral Large 3. Открытые релизы рассчитаны на широкое распространение по разным отраслям и сценариям применения.
Разработчикам предлагают использовать сжатые форматы моделей, которые снижают затраты на развёртывание и эксплуатацию по сравнению с тяжёлыми закрытыми решениями. Такой подход ориентирован на практическую экономию ресурсов при сохранении функциональности.
По словам компании, Large 3 обучалась с применением значительных вычислительных ресурсов на оборудовании NVIDIA для улучшения результатов в задачах мультиязычного общения, понимания изображений и общих инструкций. Это обучение направлено на повышение качества вывода и устойчивости моделей в прикладных сценариях.
Mistral AI подчёркивает сотрудничество с NVIDIA, Red Hat и проектом vLLM для ускорения инференса и упрощения развёртывания. Партнёры обеспечивают оптимизацию как для центров обработки данных, так и для задач на периферии сети.
В рамках сотрудничества введены методы низкой точности вычислений и улучшенные ядра, что увеличивает пропускную способность при обработке нагрузок большого масштаба. Эти оптимизации ориентированы на повышение эффективности при интенсивных вычислениях.
Серия Mistral 3 включает модели, адаптированные для локального и периферийного развёртывания в трёх размерах. Каждая версия поддерживает задачи понимания изображений и мультиязычной обработки, а также предлагает варианты с фокусом на инструкции и рассуждение для баланса точности и стоимости.
Компания отмечает, что в реальных применениях модели генерируют меньше лишних токенов и избегают чрезмерно длинных ответов, что снижает операционные расходы для предприятий. Это решение направлено на уменьшение объёма ненужного вывода при сохранении информативности.
Релизы будут доступны через крупные платформы и облачных партнёров, при этом предусмотрены как стандартные, так и кастомные услуги по обучению. Организации, которым требуется специализированная оптимизация, могут адаптировать модели под отраслевые задачи в рамках лицензии Apache 2.0.
Компания подчёркивает долгосрочную приверженность открытой разработке и призывает разработчиков исследовать и настраивать модели для новых приложений в различных сферах. Такая открытость должна способствовать появлению специализированных решений и ускорить их внедрение.


Комментариев