Entérate   
29 de febrero de 2024

Música e inteligencia artificial. Nuevas posibilidades creativas

Por: Iván Paz
La música creada utilizando computadoras comienza en los años cincuenta (Dean, 2009). Se inició como un conjunto de experimentos, incluso realizados en laboratorios, y posteriormente se fue integrando en muy diversas prácticas. Hoy es difícil imaginar la música sin pensar en los procesos electrónicos o digitales que la rodean y, en muchos casos, incluso la caracterizan. Esto no significa que no haya música sin medios electrónicos o digitales, sino que gran parte de las prácticas musicales los incorporan.

Pronto la inteligencia artificial (IA) —que también comienza en los años cincuenta y gana popularidad en los noventa gracias al éxito de las redes neuronales para resolver problemas de clasificación—empieza a ser incorporada a la música. Hoy, en el auge de la IA, su relación con la música plantea muchas preguntas. Algunas tienen que ver con aspectos de la industria musical, como son la distribución, la producción y el consumo. Otras tienen que ver con aspectos de carácter filosófico, como la reflexión acerca del concepto de autoría cuando tenemos máquinas capaces de componer música y que aprenden al analizar grandes bases de datos. Así, podemos preguntarnos: ¿quién es autor de la música compuesta: la persona que ha diseñado el algoritmo de aprendizaje o aquella que ha compuesto la música que hay en la base de datos o la máquina? ¿Qué agencia tiene el algoritmo?

Pero una pregunta igualmente interesante, cuya respuesta intentaré esbozar con algunos ejemplos en las siguientes líneas, es: ¿cómo es que la IA permite crear música que sería difícil crear de otra manera? Para responder podemos pensar en el tipo de instrumentos que surgen al incorporar tecnologías de IA. Podemos decir, pensando en retrospectiva, que el siglo XIX fue el siglo de los instrumentos acústicos; el piano es el mejor ejemplo de ello. En él encontramos tecnologías acústicas, teoría de las afinaciones, materiales, etc. El siglo XX fue el siglo de los instrumentos electrónicos. Comenzando con el Theremín y terminando, en mi opinión, con el sintetizador modular. La música electrónica creada en las últimas décadas del siglo XX recuerda vagamente a los instrumentos acústicos y tiene una sonoridad y una forma propias. El siglo XXI será de los instrumentos algorítmicos que, por supuesto, incluyen a aquellos que utilizan tecnología de IA (Magnusson, 2019). Explicar los instrumentos algorítmicos requeriría un texto aparte, pero mencionaré aquí algunos ejemplos que me permitirán desarrollar la idea.

Es importante tener en cuenta que tradicionalmente hay dos posiciones ante la tecnología. Por un lado, hay tecnología cuya intención de diseño es sustituir a los seres humanos. Por otro lado, hay tecnología diseñada como una ampliación de las posibilidades humanas creativas (Sibilia, 2016). Dentro de la tecnología que se diseña para sustituir a los seres humanos podemos colocar a las plataformas que, a través de instrucciones de “alto nivel” —como “triste” o “alegre”— permiten componer música de manera automática con dichas características (si el objetivo se alcanza o no sería también tema de otro texto). Dentro de esta misma categoría podemos situar experimentos en donde se crea un modelo a partir de toda la música de alguna persona para componer con su estilo o personalidad musicales.

En la segunda categoría, el uso de la tecnología para extender las capacidades humanas, los ejemplos son sistemas algorítmicos que utilizan aprendizaje de máquina (machine-learning, una subdisciplina de la IA), es decir que recopilan datos, los analizan y encuentran patrones que modelan cierto comportamiento presente en la base de datos.

El aprendizaje de máquina permite crear “instrumentos” que cambian al interactuar con su ejecutante. Para esto, los instrumentos recogen datos cada vez que se utilizan y a través de su análisis modifican su comportamiento. Por ejemplo, podemos guardar diversas configuraciones de parámetros de un algoritmo de síntesis de sonido (los sintetizadores permiten generar gran variabilidad sonora) cada vez que lo utilizamos. Con el tiempo creamos una base de datos agregando o eliminando configuraciones. El sistema de IA, después de analizar esta base de datos, será capaz de producir variaciones de estas configuraciones con características similares a las que hemos guardado. El sistema evoluciona y crea un instrumento que produce determinado tipo de sonoridades. Poder entrenar un instrumento musical a través del uso nos lleva a preguntarnos: ¿cómo utilizamos un instrumento que ha sido entrenado por otra persona? ¿Hay algo de su personalidad musical codificado en la base de datos de los patrones seleccionados? ¿Cómo serán los instrumentos entrenados por diversas personas?

También es posible entrenar un instrumento para tareas que no son inmediatamente musicales como la creación de sonidos, melodías o ritmos, sino para conducir el desarrollo de la música de diferente manera. Puede entrenarse una máquina para que le indique a una persona que está improvisando, qué tan similar es su improvisación actual respecto de sus antiguas improvisaciones (Knotts, 2019). De esta manera la máquina ayuda a quien improvisa a crear improvisaciones más innovadoras, a no repetirse.

Otra aplicación de la inteligencia musical (IA aplicada a la música) es la de crear sonidos nuevos a partir de sonidos existentes. Es posible entrenar una red neuronal para que aprenda las características tímbricas de sonidos contenidos en archivos de audio. El caso típico es analizar muchas muestras similares (de un mismo instrumento o de una misma voz humana). De esta manera la red neuronal puede recrear los sonidos de las fuentes sonoras con las que ha sido entrenada. Podemos entrenar redes neuronales que nos permiten recrear la voz de una persona o el sonido de un instrumento. No obstante, cuando incluimos en el conjunto de entrenamiento (es decir, en la base de datos que se analiza) sonidos que pertenecen a diversas fuentes sonoras, como podrían ser voces de muchas personas o diversos instrumentos, la red neuronal aprende las características tímbricas (el color del sonido o, formalmente, su espectro armónico) mezclando las distintas fuentes que existen en el conjunto de datos analizado. Esto permite crear sonidos nuevos, inexistentes en el mundo real, que son combinaciones de las características subyacentes de los sonidos escuchados por la máquina.

Estos ejemplos pueden pensarse, desde mi punto de vista, como extensiones de las capacidades humanas, aunque podrían tener distintos grados de participación de la máquina en la creación de música. Mi intención al seleccionarlos es mostrar cómo las tecnologías de IA pueden estar presentes desde la creación del material sonoro, hasta la conducción de alto nivel de una pieza. En todos los ejemplos mencionados el objetivo es explorar un espacio para crear música que de otra manera no sería posible. Es decir, nos permiten explorar posibilidades sonoras a las cuales hubiera sido difícil llegar de otra manera o que, tal vez, incluso comienzan a existir en el momento en que las escuchamos.



Iván Paz estudió música, además de física y ciencias de la computación en la UNAM. Obtuvo el doctorado en ciencias de la computación en la Universidad Politécnica de Cataluña (UPC). Su trabajo se desarrolla en torno de aproximaciones críticas a la tecnología, con foco en la construcción desde cero como técnica de exploración. Desde 2010 participa activamente en la comunidad de Live Coding (codificación en vivo para la creación artística) mediante talleres, conferencias y conciertos en América y Europa. Trabaja con técnicas de machine-learning en el contexto del Live Coding y en la creación de artefactos artísticos. Ha sido maestro en diversas IES, incluyendo la UPC, la Escuela de Diseño e Ingeniería de Barcelona Elisava y la UNAM.

Referencias
Dean, R. T. (2009). The Oxford Handbook of Computer Music. Oxford University Press.

Knotts, Shelly (diciembre de 2017). CYOF. https://vimeo.com/264561088.

Magnusson, T. (2019). Sonic writing: technologies of material, symbolic, and signal inscriptions. Estados Unidos: Bloomsbury Publishing.

Sibilia, P. (2016). El hombre postorgánico. México: Fondo de Cultura Económica.

Playlist
Leon Theremin toca su instrumento: https://youtu.be/w5qf9O6c20o?si=TMUyEA-WYgqQdpY3

Primera grabación de música producida por computadora (Mark II de Alan Turing): https://soundcloud.com/the-british-library/first-recording-of-computer-music-1951-copeland-long-restoration

CSIRAC, “Colonel Bogey”: https://youtu.be/BauEPzMNPnw?si=HopKCt6dso70ZiuG

Frank Sinatra canta “Smells Like Teen Spirit” de Nirvana (cover producido por IA): https://youtu.be/Num0q-l-ldc?si=H0t_irbkjGRt_ICy

Elvis Presley canta “Highway to Hell” de AC/DC (cover producido por IA): https://youtu.be/AtgSpT86m7I?si=6bfWeeP_uGdRhIIB

Freddy Mercury canta “Thriller” de Michael Jackson (cover producido por IA): https://youtu.be/fGklID_hoS8?si=5YavPiXEXaVp92sO

Dan Gorelick, “Fantasía No. 0 en do menor para piano y computadora” (Live Coding): https://youtu.be/Ru4Ukst8YLo?si=LZEyaQydsY4m9aJm

Iván Paz, “Cross-Categorized-Seeds” (Live Coding, 2019): https://youtu.be/zjTL0DOCNBo?si=jcpN91Fbqy1zMntW
Número actual
Compartir:
     
Números anteriores
Ver más
Sin categoria (1)
Encuadre (9)
Entrevista (3)
Entérate (8)
Experiencias (4)
Enfoque (2)
Extras (2)