2023/11/15 15:27:52

Искусственный интеллект и создание музыки

По мере развития искусственного интеллекта (ИИ) растет и его потенциал в креативных областях, одной из которых является музыкальная индустрия. Последним трендом, внесенным ИИ в музыкальную индустрию, является сочинение музыки с помощью алгоритмов машинного обучения. Несмотря на то, что «искусственной» музыке еще далеко до произведений великих классиков, алгоритмы уже успели добиться достойных удивления результатов. Данная статья обозревает некоторые существующие на январь 2019 года методы использования ИИ для сочинения музыки и различные по масштабу релевантные проекты: от стартапов до продуктов от технологических гигантов.

Содержание

Основная статья: Искусственный интеллект

2024: Adobe представила «фотошоп» для редактирования музыки и ее создания на основе текстовых описаний

28 февраля 2024 года компания Adobe анонсировала инструмент Project Music GenAI Control на основе генеративного искусственного интеллекта (ГенИИ). Это своеобразный «фотошоп» для редактирования музыки и ее создания на основе текстовых описаний. Подробнее здесь.

2023

В России создали нейросеть, позволяющую «дирижировать» воспроизведением классических музыкальных произведений

9 ноября 2023 года Сколковский институт науки и технологий (Сколтех) сообщил о разработке нейросети, которая позволяет любому желающему «настраивать» музыкальные произведения под свои предпочтения. Причем «дирижировать» воспроизведением музыки можно при помощи голоса, жестов и даже мимики.

Система использует модель искусственного интеллекта, которая обучена на общедоступном корпусе из 1067 музыкальных исполнений 236 произведений фортепианной музыки. В качестве входных данных используются ноты: модель учится играть по ним, предсказывая характеристики исполнения — локальный темп, позицию, длительность и громкость. Результатом является исполнение произведения в определенном стиле.

Метки в отрывке партитуры к сонате Бетховена № 17. Синим цветом обозначены указания по темпу, красным и оранжевым — указания по громкости, зелёным – акценты для нот.

Через специальное мобильное приложение пользователь может управлять ИИ-моделью: для этого используются микрофон и камера смартфона или планшета. Чтобы повлиять на исполнение того или иного произведения, достаточно нажать на кнопку и записать видео или аудио. С помощью голосовых команд или выражения эмоций на лице можно попросить ИИ-модель воспроизвести музыку по-другому — например, замедлить темп или сделать из классической мелодии колыбельную.

«
Для управления моделью мы используем указания к исполнению, которые уже написаны в нотах. В партитурах есть метки, которые указывают исполнителю, как играть ту или иную часть произведения: быстрее, медленнее, громче, тише и так далее. Мы берем все данные, которые есть, и на их основе преобразуем голосовые инструкции пользователя в эти указания, — говорят разработчики.
»

Нейросеть позволяет человеку, не обладающему навыками игры на музыкальных инструментах, влиять на то, как воспроизводится то или иное произведение классической музыки. В дальнейшие планы создателей входит улучшение интерфейса системы и расширение базы музыкальных произведений. Ожидается, что процесс взаимодействия пользователя и ИИ станет полностью интерактивным.[1]

ИИ впервые в мире солировал на концерте во Владивостоке

10 сентября 2023 года в рамках Восточного экономического форума во Владивостоке прошел концерт, где искусственный интеллект от «Сбера» стал солистом и импровизатором. Такой эксперимент был проведен впервые в мировой истории. Подробнее здесь.

2019: Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel

27 марта 2019 года появилась информация о том, что Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel, создающим музыкальные композиции под настроение пользователя в текущий момент. По условиям контракта, в течение года нейросеть Endel выпустит 20 уникальных альбомов. На март 2017 года пять альбомов уже доступны для скачивания в iTunes, при этом все альбомы созданы, как выражаются разработчики, «нажатием одной кнопки».

Endel разработан одноименным стартапом, сооснователем и исполнительным директором которого выступает игровой журналист россиянин Олег Ставицкий. По утверждению разработчиков алгоритма, Endel адаптируется к настроению пользователя и помогает ему в зависимости от поставленных задач — музыка нейросети помогает заниматься спортом, работать, засыпать или медитировать. При этом ИИ сам определяет, что требуется человеку в данный момент, анализируя множество параметров: время суток, геолокацию, погоду за окном, пульс и частоту биения сердца человека.

Endel — сервис для концентрации, расслабления, улучшения сна и мотивации человека.
«
Мы на пороге затопления рынка системами автоматической и процедурно-сгенерированной музыки, продукт которых удовлетворит большинство людей в большинстве ситуаций, — утверждает аналитик рынка Холли Херндон.
»

По мнению эксперта, дальнейшая трансформация рынка музыки и шоу-бизнеса будет происходить ускоренными темпами. Как известно, в Китае и Корее концерты полностью виртуальных исполнителей — уже обычное дело, а число фанатов «цифровых» кумиров исчисляется миллионами. Теперь эта тенденция, полагает аналитик, будет распространяться и на более консервативном западном рынке.

2018

На пересечении двух растущих индустрий

Ожидается[2], что в мировом масштабе доход компаний от использования искусственного интеллекта составит $1,2 трлн по итогам 2018 года, что на 70 процентов больше по сравнению с 2017 годом, а в 2022 году, по прогнозам, эти выгоды достигнут $3,9 трлн. И такой быстрый рост уже далеко ни для кого не тайна: искусственный интеллект можно назвать определяющей технологией 21-го века. Искусственный интеллект отличается от традиционных программ анализа данных своей способностью учиться распознавать шаблоны с помощью алгоритмов машинного обучения, а затем принимать автономные решения на основе этих шаблонов, будучи явно не запрограммированным на это.

В то же время, мировой рынок программного обеспечения для производства музыки, по прогнозам[3], вырастет до $6,26 млрд к концу 2022 года. Ключевым фактором, который будет стимулировать рост индустрии, является растущий спрос на цифровой аудио-контент во всем мире. Аудио-контент, в свою очередь, набирает популярность в связи с недавно начавшимся ростом[4] потоковых (стриминговых) сервисов. Это приводит к увеличению числа исполнителей и музыкальных продюсеров, создающих музыкальный контент, что, в конечном итоге, увеличивает спрос на программное обеспечение для сочинения музыки. Алгоритмы ИИ уже несколько лет используются для определения музыкального вкуса и настройки персональных рекомендаций на потоковых сервисах, и на фоне всплеска исследований и инвестиций в технологию искусственного интеллекта в целом, произошел шквал активности[5] вокруг предмета сочинения музыки с помощью этой технологии. И по прогнозам[6], ИИ сильно повлияет на процесс создания музыкального контента.

Примеры использования: крупные компании

NSynth Super (Google)

NSynth Super[7] является частью продолжающегося эксперимента под именем Magenta[8]: исследовательского проекта в Google, который "изучает, как технология машинного обучения может помочь деятелям искусства творить по-новому" и взглянуть на творческий процесс с другого ракурса.Интервью TAdviser: Вячеслав Касимов, ИБ-директор МКБ — о применении DevSecOps при разработке веб-приложений 8.2 т

Различные звуковые эффекты[9], изменяющие частоту и амплитуду звука, электрические музыкальные инструменты[10] — всё это примеры других звучаний, созданных с помощью технологий. Теперь в список таких технологий можно включить и машинное обучение, потому что прогресс в этой области открывает нетрадиционные возможности для генерации необычного звучания.

Основываясь на прошлых исследованиях в этой области, Magenta создала NSynth (Neural Synthesizer (прим. Нейронный Синтезатор)) — алгоритм машинного обучения, который использует глубокую нейронную сеть для изучения различных характеристик звука, а затем создает совершенно другое звучание на их основе. По словам разработчиков[11], вместо того, чтобы комбинировать или смешивать звуки, NSynth синтезирует звук, используя акустические качества оригинальных звуков. Благодаря этому можно получить звук, который является и звучанием флейты, и звучанием ситара, — всем сразу.

Прототип NSynth Super - экспериментального инструмента, способного генерировать новые звуки

С момента релиза алгоритма NSynth, Magenta продолжала экспериментировать с различными музыкальными интерфейсами и инструментами, чтобы сделать вывод алгоритма NSynth более понятным для обывателя и воспроизводимым. В рамках этого исследования они создали NSynth Super в сотрудничестве с Google Creative Lab. Это экспериментальный инструмент с открытым исходным кодом, который дает музыкантам возможность создавать музыку, используя новые звуки, генерируемые алгоритмом NSynth из 4-х различных базовых исходных звуков. Затем прототипом опыта (на фото выше) поделились с небольшим сообществом музыкантов, чтобы лучше понять, как они могут использовать его в своем творческом процессе. Например, можно посмотреть[12] , как лондонский музыкальный продюсер Гектор Плиммер исследует звуки, сгенерированные NSynth Super.

Звуки, сгенерированные NSynth Super


Как пишут разработчики на своем сайте, "используя NSynth Super, музыканты имеют возможность исследовать более 100 000 новых звуков, сгенерированных с помощью алгоритма NSynth".

Flow Machines (Sony)

Flow Machines[13], (прим. дословный перевод — Потоковые Машины) — это научно-исследовательский проект, целью которого является расширение границ креативности человека в музыке.

Центральной частью этого проекта является Flow Machines Composer. Пока что это не робот с сознанием, который стремится выразить свои переживания с помощью музыки, но это набор сложных алгоритмов, которые получили свое знание и «чувство» музыки за счет изучения огромной базы данных (15 000 песен).

Чтобы написать песню с помощью Flow Machines Composer, сначала нужно задать стиль мелодии, а затем внутри системы происходит следующее[14]: алгоритм получает выборку песен с похожим стилем, запускает аналитическую модель, известную как цепь Маркова, которая идентифицирует шаблоны в этих выборках, а затем имитирует и изменяет их, чтобы создать свою собственную оригинальную композицию.

Далее компьютер вычисляет вероятность определенных аккордовых прогрессий[15], мелодических связей и ритмических рисунков[16], и использует эти вероятности для создания правдоподобных и звучащих удачно (с точки зрения музыки) вариаций.

А вот на следующем этапе сочинения, система требует вмешательства человека. Пользователь может сохранить понравившуюся часть получившейся мелодии, и отказаться от остального, а затем снова запустить программу в ожидании следующих удачных сгенерированных вариаций. И так можно делать до тех пор, пока не появится мелодия и последовательность аккордов, которыми вы будете довольны.

В сентябре 2016-го года Flow Machines представили свету свой сингл "Daddy's Car" — это достаточно оживленная поп-песня, основанная на выборке мелодий Beatles[17].

Сингл "Daddy's Car"

Примеры использования: стартапы

AIVA

AIVA[18] (Artificial Intelligence Virtual Artist)— это стартап, базирующийся в Люксембурге и профинансированный в размере 768 000$[19], цель которого, как пишут разработчики на своем сайте[20],— это «дать возможность людям создавать персонализированные саундтреки с помощью искусственного интеллекта». По словам разработчиков, AIVA способна сочинять эмоциональные саундтреки для фильмов, видеоигр, рекламных роликов и любого другого типа развлекательного контента.

AIVA изучила искусство сочинения музыки, «прочитав» большую коллекцию музыкальных партитур, написанных композиторами (Моцартом, Бетховеном, Бахом и др.), и «создала математическую модель представления того, что такое музыка»[21]. Именно эта модель и используется для сочинения современной музыки. Стоит упоминания тот факт, что недавно AIVA стала виртуальным композитором, чьи работы были зарегистрированы в обществе авторских прав (SACEM[22]). Одну из этих работ можно послушать ниже[23].

AIVA - "Genesis" Symphonic Fantasy in A minor, Op. 21


Popgun

Запущенный в январе 2017 года, австралийский стартап Popgun, как сообщается[24], использует глубокое обучение для создания музыкального искусственного интеллекта, который сможет "дополнять" исполнителей в режиме реального времени.

Проектом Popgun стал искусственный интеллект Alice, который может предсказать, что музыкант будет играть дальше, подыгрывать ему, и даже немного импровизировать на музыкальную тему партитуры музыканта-человека.

Всему этому Alice научилась не сразу, а постепенно: лучше всего это отобразит видео[25], которое показывает эволюцию технологии с января 2017 года по июль 2018 года. Видео начинается с того как искусственный интеллект Alice демонстрирует свои навыки прогнозирования: музыкант играет короткие мелодии на фортепиано, и Alice отвечает тем, что по ее предположению музыкант будет играть дальше.

Искусственный интеллект Alice может "дополнять" исполнителей в режиме реального времени

К августу 2017 года Alice была способна на импровизацию: т.е сначала она прослушивала последовательность нот, сыгранную человеком, а затем изменяла её, но при этом сохраняла главную музыкальную тему. К концу года Alice могла в различных стилях создавать оригинальные фортепианные композиции без участия человека.

На январь 2019 года Popgun имеет искусственный интеллект (или, лучше сказать, группу искусственных интеллектов), который может подыграть человеку на пианино, на басу или на барабанах (или на всем сразу). Если же мелодия снабжена человеческим вокалом, то разработанный алгоритм может сочинять подходящую инструментальную партию, а также сводить несколько музыкальных отрывков в один и производить финальную обработку звучания.

Будущее искусственного интеллекта для сочинения музыки

Всё это, конечно, удивительно, однако же имеющиеся технологии далеки от того, чтобы искусственный интеллект обладал способностью создавать что-то принципиально новое: машина может пропустить через себя огромный объём данных, и «понять» как можно сделать и как уже было сделано, но она не может загореться внезапным приступом вдохновения и воплотить свою творческую задумку. Мелодии, сочиненные искусственным интеллектом, все еще нуждаются в том, чтобы человек приложил к ним руку в отношении теории музыки, музыкального производства и оркестровки. Иначе же они будут звучать немного непривычно и достаточно сумбурно для человеческого уха.

Большой проблемой для искусственного интеллекта является понимание творческих и художественных решений (однако же иногда это является проблемой и для экспертов в области музыки). Кроме того, машины по-прежнему не обладают неуловимым творческим началом, являющимся жизненно необходимым для создания искусства. В целом, ИИ-эксперты согласны, что искусственный интеллект никогда не сможет заменить человека на поприще создания музыки, но, как упоминалось выше, сможет значительно изменить весь процесс.

2017: Выход альбома Тэрин Саузерн I AM AI в соавторстве с ИИ

Американская певица Тэрин Саузерн выпустила летом 2017 года сингл Break Free, который открывает её новый альбом I AM AI – «Я – искусственный интеллект». В официальном анонсе было указано, что весь альбом, включая этот трек, создается в соавторстве с неизвестным публике музыкантом Amper. Однако не вызывающий на первый взгляд никаких подозрений творческий дуэт оказался вовсе не тем, что можно было ожидать[26].

Проект Amper – искусственный интеллект, результат совместной работы технических специалистов и профессиональных музыкантов. Он способен писать, исполнять и продюсировать музыку. Ампер – первый в истории искусственный интеллект, выпустивший собственный музыкальный альбом.

Ампер является уникальным в своем роде. ИИ, генерирующие музыку, существовали и до него, однако ранние модели работали по определенному алгоритму и итоговый продукт требовал серьезной переделки человеком, вплоть до изменения аккордов и целых частей мелодии, прежде чем мог считаться полноценным музыкальным произведением.

Ампер же не нуждается в помощи, когда создает собственные треки – он самостоятельно подбирает необходимые звуки и выстраивает структуры аккордов. Обрабатывающему полученную в итоге мелодию человеку остается только подкорректировать ритм и стилистику – все остальное Ампер делает сам всего за несколько секунд.

2016: Google запускает Magenta для создания музыки и видео нейронными сетями

В мае 2016 года компания Google даже запустила специальный проект Magenta, основная задача которого заключается в изучении креативных возможностей нейронной сети. Ученые планируют осваивать премудрости творческого процесса постепенно: сначала будет разработан алгоритм для создания музыкальных произведений. Затем настанет очередь видео и изобразительного искусства. Данные о результатах работы планируется размещать в открытом доступе на GitHub.

«Есть несколько причин, по которым я захотел сформировать Magenta, и одна из них заключалась в желании увидеть полноценные, честные и удивительные улучшения в искусстве глубинного обучения», - говорит руководитель проекта Дуглас Экк[27].

Буквально через пару недель после открытия Magneta, была запущена программа по импорту музыкальных файлов MIDI-формата в систему TensorFlow с целью обучить искусственный интеллект созданию музыки. Однако пока результаты работы программы не столь удачны (хотя справедливости ради нужно сказать, что прошло еще не так много времени).

Робототехника



Примечания

  1. Новое приложение позволит управлять музыкой и менять известные композиции голосом и жестами
  2. Gartner Says Global Artificial Intelligence Business Value to Reach $1.2 Trillion in 2018
  3. Global Music Production Software Market 2018-2022
  4. Why the music industry is poised for explosive growth
  5. Music's smart ruture
  6. Global Music Production Software Market 2018-2022
  7. Making music using new sounds generated with machine leaning
  8. Make music and art using machine leaning
  9. Звуковой эффект
  10. Электронные музыкальные инструменты
  11. Making music using new sounds generated with machine leaning
  12. Making music with NSynth Super
  13. Flow Machines: AI music making
  14. Inside the Lab That's Producing the First AI-Generated Pop Album
  15. Аккордовая последовательность
  16. Ритмический рисунок
  17. Daddy's Car: a song composed by Artificial Intelligence - in the style of the Beatles
  18. AIVA
  19. 11 Startups Using AI to Compose Music
  20. About AIVA
  21. Математическая модель представления того, что такое музыка
  22. SACEM
  23. AIVA - "Genesis" Symphonic Fantasy in A minor, Op. 21
  24. Popgun is using AI to make Pop Music
  25. Popgun - Evolution
  26. В продажу поступил первый музыкальный альбом, записанный искусственным интеллектом
  27. Искусственный интеллект. Испытание творчеством