Música e inteligência artificial – Wikipédia, a enciclopédia livre

A pesquisa em inteligência artificial (IA) é conhecida por ter afetado o diagnóstico médico, a negociação de ações, o controle de robôs e vários outros campos. Talvez menos popular seja a contribuição da IA no campo da música. No entanto, a inteligência artificial e música (AIM) tem sido, por muito tempo, um assunto comum em várias conferências e workshops, incluindo a Conferência Internacional de Computação, a Conferência da Sociedade de Computação[1] e a Conferência Internacional Conjunta sobre Inteligência Artificial. De fato, a primeira Conferência Internacional de Música por Computador foi o ICMC 1974, Universidade Estadual de Michigan, East Lansing, Estados Unidos.[2] A pesquisa atual inclui a aplicação da IA na composição musical, desempenho, teoria e processamento de som digital.[3]

Vários programas de software de música foram desenvolvidos e usam IA para produzir música.[4] Assim como suas aplicações em outros campos, a IA neste caso também simula uma tarefa mental. Uma característica proeminente é a capacidade do algoritmo de IA de aprender com base em informações obtidas, como a tecnologia de acompanhamento por computador, que é capaz de escutar e seguir um executante humano, para que possa executar em sincronia.[5] A inteligência artificial também impulsiona a chamada tecnologia de composição interativa, em que um computador compõe música em resposta ao desempenho de um músico ao vivo. Existem vários outros aplicativos de IA para música que abrangem não apenas a composição, a produção e o desempenho da música, mas também a forma como ela é comercializada e consumida.

Em 1960, o pesquisador russo R.Kh.Zaripov publicou o primeiro artigo mundial sobre composição algorítmica de música usando o computador " Ural-1 ".[6]

Em 1965, o inventor Ray Kurzweil estreou uma peça de piano criada por um computador capaz de reconhecer padrões em várias composições. O computador foi então capaz de analisar e usar esses padrões para criar novas melodias. O computador foi lançado no programa "I've got a secret", de Steve Allen, e confundiu os apresentadores até que o astro de cinema Henry Morgan adivinhou o segredo de Ray.[7]

Aplicações de Software

[editar | editar código-fonte]

Pontuações interativas

[editar | editar código-fonte]

Cenários Multimídia em escores interativos são representados por objetos temporais, relações temporais e objetos interativos. Exemplos de objetos temporais são sons, vídeos e controles de luz. Objetos temporais podem ser acionados por objetos interativos (geralmente lançados pelo usuário) e vários objetos temporais podem ser executados simultaneamente. Um objeto temporal pode conter outros objetos temporais: essa hierarquia nos permite controlar o início ou o fim de um objeto temporal controlando o início ou o fim de seu pai. A hierarquia está sempre presente em todos os tipos de música: as peças musicais são muitas vezes hierarquizadas por movimentos, partes, motivos, medidas, entre outras segmentações.[8][9]

Acompanhamento de computador (Carnegie Mellon University)

[editar | editar código-fonte]

O Computer Music Project da CMU desenvolve música de computador e tecnologia de performance interativa para melhorar a experiência musical humana e a criatividade. Este esforço interdisciplinar baseia-se em teoria musical, ciência cognitiva, inteligência artificial e aprendizado de máquina, interação homem - computador, sistemas em tempo real, computação gráfica e animação, multimídia, linguagens de programação e processamento de sinal.[10]

Desenvolvido na Universidade de Princeton por Ge Wang e Perry Cook, ChucK é uma linguagem multiplataforma baseada em texto que permite síntese, composição, desempenho e análise de música em tempo real.[11] É usado pelo SLOrk (Stanford Laptop Orchestra)[12] e pelo PLOrk (Princeton Laptop Orchestra).

MorpheuS[13] é um projeto de pesquisa de Dorien Herremans e Elaine Chew na Queen Mary University de Londres, financiado por um projeto europeu Marie Skłodowská-Curie. O sistema usa uma abordagem de otimização baseada em um algoritmo de busca de vizinhança variável para transformar peças de modelo existentes em novas peças com um nível de tensão tonal que muda dinamicamente ao longo da peça. Esta abordagem de otimização permite a integração de uma técnica de detecção de padrões, a fim de reforçar a estrutura de longo prazo e temas recorrentes na música gerada. Peças compostas por MorpheuS foram realizadas em concertos em Stanford e Londres.

Criado em fevereiro de 2016, no Luxemburgo, o AIVA é um programa que produz trilhas sonoras para qualquer tipo de mídia. Os algoritmos por trás do AIVA são baseados em arquiteturas de aprendizado profundo.[14] OAIVA também foi usado para compor uma faixa de Rock chamada On the Edge,[15] bem como uma música pop Love Sick[16] em colaboração com a cantora Taryn Southern,[17] para a criação de seu álbum de 2018 "I am AI".

Música gerada por inteligência artificial

[editar | editar código-fonte]

Muitos geradores de música foram criados e podem ser gerados usando uma frase de texto, opções de gênero e bibliotecas em loop de compassos e riffs.[18]

  • Composição algorítmica
  • Modelos computacionais de criatividade musical
  • Aplicações de inteligência artificial
  • Lista de software de música

Referências

  1. INFORMS Computing Society Conference: Annapolis: Music, Computation and AI Arquivado em 2012-06-30 na Archive.today. Rcf.usc.edu. Retrieved on 2010-12-22.
  2. International Computer Music Association - ICMC. Computermusic.org (2010-11-15). Retrieved on 2010-12-22.
  3. Research in Music and Artificial Intelligence - Ergonomics Abstracts. Informaworld.com. Retrieved on 2010-12-22.
  4. «A Functional Taxonomy of Music Generation Systems». ACM Computing Surveys. 50. doi:10.1109/TAFFC.2017.2737984 
  5. «Artificial Intelligence, Machine Learning, and Music Understanding» (PDF). Semantic Scholar 
  6. «Об алгоритмическом описании процесса сочинения музыки (On algorithmic description of process of music composition)». Proceedings of the USSR Academy of Sciences. 132 
  7. [1]
  8. Mauricio Toro, Myriam Desainte-Catherine, Camilo Rueda. Formal semantics for interactive music scores: a framework to design, specify properties and execute interactive scenarios. Journal of Mathematics and Music 8 (1)
  9. «Open Software System for Interactive Applications» (em inglês) 
  10. Computer Music Group. 2.cs.cmu.edu. Retrieved on 2010-12-22.
  11. ChucK => Strongly-timed, On-the-fly Audio Programming Language. Chuck.cs.princeton.edu. Retrieved on 2010-12-22.
  12. Driver, Dustin. (1999-03-26) Pro - Profiles - Stanford Laptop Orchestra (SLOrk), pg. 1. Apple. Retrieved on 2010-12-22.
  13. «MorpheuS: Automatic music generation with recurrent pattern constraints and tension profiles». IEEE Transactions on Affective Computing. PP(1). doi:10.1109/TAFFC.2017.2737984 
  14. [2]. AIVA 2016
  15. [3] AI-generated Rock Music: the Making Of
  16. [4] Love Sick | Composed with Artificial Intelligence - Official Video with Lyrics | Taryn Southern
  17. [5] Algo-Rhythms: the future of album collaboration
  18. «9 "Best" AI Music Generators (February 2024) - Unite.AI». www.unite.ai. Consultado em 29 de fevereiro de 2024 

Leitura adicional

[editar | editar código-fonte]

Ligações externas

[editar | editar código-fonte]