Mistral выпустил новую линейку ИИ-моделей

Mistral AI

Французский ИИ-стартап Mistral представил третью версию одноименной линейки моделей с открытыми весами.

Introducing the Mistral 3 family of models: Frontier intelligence at all sizes. Apache 2.0. Details in 🧵 pic.twitter.com/lsrDmhW78u

— Mistral AI (@MistralAI) December 2, 2025

В серию из 10 нейросетей входит одна большая передовая LLM с мультимодальными и мультиязычными возможностями. Девять других имеют меньший размер, способны работать в автономном режиме и настроены под индивидуальные задачи.

«Наши клиенты иногда с удовольствием начинают с очень большой модели, которую не нужно настраивать. После интеграции они понимают, что она дорогая и медленная, поэтому обращаются к нам для настройки небольших решений», — отметил соучредитель и главный научный сотрудник Mistral Гийом Лампле.

Основанный выходцами из DeepMind и Meta стартап позиционируется как ключевой европейский конкурент ИИ-гигантам из США и Китая. Компания суммарно привлекла $2,7 млрд при оценке в $13,7 млрд.

По словам Лампле, первичные тесты могут создавать впечатление, что небольшие модели Mistral уступают аналогам. Однако он назвал такие выводы обманчивыми: крупные нейросети действительно демонстрируют высокие метрики «из коробки», но реальная эффективность решений раскрывается именно после их донастройки.

«Во многих случаях можно достичь результатов, сопоставимых с моделями с закрытым исходным кодом, или даже превзойти их», — сказал он.

Рой экспертов

Флагманская Large 3 построена на архитектуре Granular Mixture of Experts. В отличие от классического подхода Mixture of Experts, использующего небольшое число «экспертов», новая технология делит нейросеть на множество мелких специализированных модулей.

Из 675 млрд общих параметров модели активными являются 41 млрд. В сочетании с контекстным окном в 256 000 токенов такая конфигурация обеспечивает высокую скорость работы с объемными документами и эффективность при выполнении агентных задач.

Остальные 9 нейросетей представляют собой модели трех размеров — 14 млрд, 8 млрд и 3 млрд параметров. Есть три варианта настроек:

  • Base — предварительно обученная базовая модель;
  • Instruct — оптимизированная для чата, разговоров и рабочих процессов;
  • Reasoning — настроена для сложных логических и аналитических задач.

Данный диапазон дает разработчикам и предприятиям гибкость в подборе моделей в соответствии с их задачами.

Согласно заявлению Mistral, Ministral 3 не уступает или даже превосходит конкурентов с открытыми весами. При этом она более эффективна и генерирует меньше токенов для эквивалентных задач.

По словам Лампле, модель способна работать на одном графическом процессоре. Это позволяет запустить ее на доступном оборудовании: от локальных серверов и ноутбуков до роботов и периферийных устройств.

Это важно для предприятий, которые хранят данные на собственных серверах, удаленных команд робототехников и студентов, работающих в автономном режиме.

«Часть нашей миссии — обеспечение доступности ИИ для всех, особенно людей без интернета. Мы не хотим, чтобы технология контролировалась лишь несколькими крупными лабораториями», — подчеркнул Лампле.

Физический ИИ

Mistral уделяет все больше внимания физическому ИИ. С начала года компания занимается интеграцией компактных моделей в роботов, дроны и транспортные средства.

Фирма сотрудничает с:

  • сингапурским агентством Home Team Science and Technology Agency в области специализированных моделей для ботов, систем кибер- и пожарной безопасности;
  • немецким стартапом из сектора оборонных технологий Helsing для интеграции технологий в дроны;
  • корпорацией Stellantis для улучшения автомобильных ИИ-помощников.

Напомним, в июле CEO SAP SE Кристиан Кляйн заявил, что Европе не нужен шквал новых дата-центров для конкуренции в области ИИ.

Подписывайтесь на новости AIcybernews.com в Twitter и Facebook

Другие новости

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

Актуально

Последние новости

Чего ждать от главного обновления Ethereum в 2025 году

Сегодня в сети Ethereum состоится одно из самых масштабных обновлений последних лет — апгрейд Fusaka. Он стал продолжением развития сети после обновления Pectra....

Розробники Helldivers 2 стиснули гру зі 154 ГБ до 23 ГБ

Сучасні ігри займають дуже багато місця на накопичувачі. І показники понад 100 ГБ давно не дивують сучасного користувача. Однак це завдає явних незручностей тим,...

YouTube запустил первый персонализированный годовой отчет о просмотренных видео

Скриншоты нового годового отчета YouTube Recap 2025. Источник: YouTube ...

Аналитики рассказали, что оказало давление на цену BTC

Распродажу биткоина и резкое падение рынка в начале недели спровоцировали ожидания ужесточения политики Банка Японии и ухудшение настроений инвесторов на глобальных площадках, заявили...