A música possui a incrível capacidade de gerar emoções e parece ser parte essencial daquilo
que a natureza humana pois é presente em todas as culturas conhecidas, assim, a música atua
como um reflexo universal de sentimentos e experiências, e tal universalidade faz dela uma
ferramenta valiosa na investigação das emoções. Para que seja possível explorar e manipular
computacionalmente a música, faz-se necessário um método que possua a capacidade de
representá-la de maneira discreta e replicável, um destes é o MIDI (Musical Instrument Digital
Interface), um protocolo que não grava o som em si, mas as instruções de como a música deve
ser tocada. No entanto, representá-la apenas não permite quantificar as emoções geradas pela
música de maneira discreta, para isso, o conceito de 'valência' (a positividade ou negatividade
a qual o estímulo é sentido) e 'excitação' (o nível de alerta gerado pelo estímulo) se provam
verdadeiramente úteis, uma vez que permitem mapear o espectro emocional humano de modo
quantitativo, e com o avanço tecnológico no ramo do estudo de redes neurais, destacando-se
entre estes o campo do aprendizado de máquina, tornou-se viável explorar tais dimensões
emocionais de maneiras inovativas, permitindo não somente o aferimento de emoções geradas
por músicas, mas também, a geração de melodias baseada em tais emoções. Em vistas destes
fatos, a presente síntese propõe-se a explorar essa interseção entre a subjetividade das emoções
humanas e as capacidades dos modelos de aprendizado profundo, desenvolvendo ou adaptando
um modelo capaz de gerar, de maneira continua, trilhas MIDI de piano que se adaptam
continuamente à excitação e valência. |