Google представила Magenta RealTime — відкриту ШІ-модель для створення музики у реальному часі. Вона вирізняєтьс тим, що реагує на текстові підказки, аудіо зразки або їх поєднання, що дозволяє користувачам експериментувати з різними способами взаємодії з музикою. Модель побудована на архітектурі Transformer з 800 мільйонами параметрів і навчена на приблизно 190 тисячах годин музики (переважно інструментальної).
Модель підійде як для ентузіастів, так і для музикантів, які хочуть спробувати створення музики за допомогою ШІ. Кожен охочий може безкоштовно протестувати Magenta RT на Colab TPU.
Код і сама модель доступні під відкритими ліцензіями на GitHub і Hugging Face, що дає можливість розробникам і музикантам вільно використовувати та змінювати інструмент. Найближчим часом Google планує додати можливість локального використання, розширити варіанти налаштування та опублікувати наукову статтю про Magenta RT.