Tencent відкрила вихідний код нової мовної моделі Hunyuan-A13B, яка вміє динамічно перемикатися між швидким та глибоким «мисленням» залежно від складності завдання. Модель дозволяє користувачам змінювати глибину міркування у реальному часі: для простих запитів використовується швидкий режим, а для складних активується багатокрокове опрацювання. Керувати цим можна за допомогою спеціальних команд — «/think» для глибокого мислення і «/no_think» для звичайного режиму.
🚀 Introducing Hunyuan-A13B, our latest open-source LLM.
— Hunyuan (@TencentHunyuan) June 27, 2025
As an MoE model, it leverages 80B total parameters with just 13B active, delivering powerful performance that scores on par with o1 and DeepSeek across multiple mainstream benchmarks.
Hunyuan-A13B features a hybrid… pic.twitter.com/8QTT547fcC
Hunyuan-A13B побудована на архітектурі Mixture of Experts із загальною кількістю параметрів 80 мільярдів, але під час роботи задіяно лише 13 мільярдів. Модель підтримує великі контекстні вікна — до 256 000 токенів, що дозволяє працювати з об’ємними текстами та завданнями. Для навчання використали 20 трильйонів токенів, з яких 250 мільярдів були зібрані зі STEM-галузей, включаючи підручники з математики, тести, відкритий код із GitHub і наукові тексти різних рівнів.
Модель добре показує себе у наукових та математичних задачах. На конкурсі з математики AIME 2024 вона досягла точності 87,3 відсотка, що вище за OpenAI o1 у тому ж раунді. Внутрішні тести Tencent засвідчили, що Hunyuan-A13B утримує високі результати на багатьох завданнях для агентів і демонструє стабільність навіть при роботі з великими контекстами, хоча поступається Gemini 2.5 Pro у деяких тестах.
Hunyuan-A13B вже доступна під ліцензією Apache 2.0 на Hugging Face і GitHub. Для швидкого розгортання підготовлені Docker-образи, а також є доступ через API у Tencent Cloud і браузерну демо-версію. Також Tencent додала два нові набори даних для тестування: ArtifactsBench для генерації коду і C3-Bench для оцінювання агентних завдань.