Підрозділ Microsoft AI представив дві власні ШІ-моделі: мовну MAI-Voice-1 та текстову MAI-1-preview. Модель MAI-Voice-1 створює хвилину аудіо менш ніж за секунду на одному графічному процесорі. Вона вже працює у функціях Copilot Daily, де ШІ-ведучий озвучує головні новини дня, а також допомагає формувати подкаст-обговорення для пояснення тем. Спробувати MAI-Voice-1 можна на Copilot Labs — там користувачі вводять текст, обирають голос і стиль мовлення.
MAI-1-preview — це перша базова текстова модель Microsoft, яку навчали на приблизно 15 000 графічних процесорів Nvidia H100. Вона створена для тих, хто шукає ШІ, що виконує інструкції і дає корисні відповіді на повсякденні запити. Зараз MAI-1-preview проходить публічне тестування на платформі LMArena і поступово з’являється у Copilot, що досі використовував великі мовні моделі OpenAI.
Керівник Microsoft AI Мустафа Сулейман наголосив, що MAI-1-preview розробляли з фокусом на побутове використання, а не для бізнесу. Компанія оптимізує моделі для споживачів, застосовуючи власні дані та ресурси. Microsoft планує надалі інтегрувати свої ШІ-моделі у Windows, Office та Azure, і вже використовує новий обчислювальний кластер на основі чипів Nvidia GB200.
Розробники, які бажають отримати ранній доступ, можуть подати заявку на API. Microsoft також працює над тим, щоб видалити з моделей риси, які можуть створити враження наявності емоцій чи намірів, і прагне зробити взаємодію зі ШІ прозорішою для користувачів.