
Компания ElevenLabs представила новую модель для генерации музыки с использованием искусственного интеллекта, которую сама компания называет пригодной для коммерческого использования.
Этот шаг расширяет направление работы ElevenLabs: за три года компания сосредоточилась на разработке инструментов для синтеза голоса и голосовых возможностей на базе ИИ, а затем расширила спектр продуктов, добавив решения для создания разговорных агентов и перевода речи.
Вместе с анонсом компания опубликовала демонстрационные образцы музыки, созданной ИИ.
В одном из отрывков синтетический голос исполняет рэп, используя образы и словесные обороты, сопоставимые с языком исполнителей, таких как Dr. Dre, N.W.A. и Kendrick Lamar, которые пережили описываемые в песнях реалии.
На фоне таких примеров усиливаются вопросы о том, на каких источниках обучаются музыкальные модели и насколько корректно воспроизводятся культурные и художественные контексты.
В предыдущем году компании Suno и Udio столкнулись с судебными исками со стороны Американской ассоциации звукозаписывающей индустрии (RIAA), где утверждалось, что их модели обучались на материалах, защищённых авторским правом; впоследствии появились сообщения о переговорах этих компаний с крупными лейблами по вопросам лицензирования.
ElevenLabs объявила о соглашениях с платформами цифрового распространения Merlin Network и Kobalt Music Group о использовании материалов этих организаций для обучения моделей ИИ.
Merlin представляет как самостоятельных артистов, включая Adele, Nirvana, Mitski, Carly Rae Jepsen и Phoebe Bridgers, тогда как в списке Kobalt — исполнители вроде Beck, Bon Iver и Childish Gambino. Представитель Kobalt сообщил, что правообладатели должны добровольно дать согласие на лицензирование своей музыки для использования в ИИ, а такое соглашение, по его словам, открывает новый источник дохода, предполагает долю в доходах, вводит меры защиты от неправомерного использования и предлагает условия, сопоставимые с другими праводержателями.


Комментариев