Китайський стартап MiniMax представив нову відкриту мовну модель MiniMax-M1 для роботи з великими обсягами тексту та складними логічними завданнями. Модель підтримує контекст до одного мільйона токенів і має «бюджет мислення» до 80 тисяч токенів, що дозволяє їй аналізувати довгі тексти. MiniMax-M1 працює на основі ефективного підходу з підкріпленням, завдяки чому модель менша за розміром у порівнянні з іншими відкритими аналогами.
MiniMax-M1 доступна безкоштовно під ліцензією Apache-2.0, і її можна знайти у двох версіях на платформі Hugging Face. Під час тестування, зокрема на OpenAI MRCR, який оцінює складне багатоступеневе міркування, модель показала кращі результати, ніж DeepSeek-R1-0528 і Qwen3-235B-A22B, і наблизилася до рівня закритої моделі Gemini 2.5 Pro.
MiniMax заснована у Шанхаї наприкінці 2021 року та отримала підтримку від інвесторів, серед яких Alibaba. Компанія спеціалізується на мовних і мультимодальних ШІ. Раніше цього року вона випустила MiniMax-Text-01, яка може працювати з контекстом до чотирьох мільйонів токенів, а також систему MiniMax-VL-01 для обробки тексту й зображень.