sábado, 28 de septiembre de 2013

La autenticidad de la música


¿Hasta dónde llega el humano y dónde empieza la máquina? Esta pregunta aparentemente simple tiene sin embargo una respuesta cada vez más compleja.
Hace un siglo, el panorama de la creación musical era muy claro: compositor, instrumentista, instrumento. Cada uno tenía una función y un papel claro. Incluso un ámbito delimitado, porque la propia limitación de la notación musical tradicional dejaba espacio para la creatividad del intérprete y acotaba el alcance de las instrucciones del compositor. Por otro lado, el instrumento era un objeto pasivo cuya influencia estaba circunscrita a la calidad de sus materiales y de su factura, pero nunca participaba en la parte creativa de la ecuación.
Luego vino la música electroacústica, y los instrumentos comenzaron a expandir sus posibilidades dando mayor poder a intérpretes y compositores para modificar la naturaleza del timbre. Más tarde, sin embargo, fueron los propios instrumentos los que comenzaron a asumir funciones del intérprete, principalmente en la música electrónica, con, por ejemplo, los arpegiadores, los loops y los efectos pregrabados.
Desde el lado del compositor, los secuenciadores empezaban a robar espacio a los intérpretes (o, en otra lectura, los intérpretes a los compositores), permitiendo la construcción de una obra de un modo mucho más preciso que el de la mera escritura en pentagramas, permitiendo al compositor decir exactamente lo que quiere y cómo lo quiere, con una exactitud milimétrica.
En la actualidad, el compositor abre su programa secuenciador favorito, enchufa a él sus instrumentos, o quizá utiliza instrumentos virtuales, o pistas pregrabadas, y construye su sonido, e incluso con un simple click lo comparte con el mundo. Nuestra reflexión es ¿es esto menos música que lo que se hacía antes?
Llevado al extremo esto es lo que sucede con la cantante Hatsune Miku. Todos los pasos, desde la composición hasta la interpretación de Miku, son sintéticos. Sí, han oído bien, la cantante es sintética, no porque sea un avatar y alguien le ponga la voz, sino porque no es un humano quien produce esa voz. En un programa que, además de la melodía, utiliza los formantes de los fonemas para entonar la letra de la canción. No sólo no son ya necesarios músicos humanos, sino ni siquiera vocalista. Lo sorprendente del caso es que Hatsune Miku tiene adeptos que pagan por ir a sus conciertos.
_Concierto de Hatsune Miku en Japón_
Concierto de Hatsune Miku en Japón
La verdad es que no tengo nada que objetar al procedimiento, aunque sí a la pésima calidad del compositor, que al parecer sigue siendo humano.
¿Y qué hay si la máquina asume también tareas correspondientes al compositor? Parece que ahí los humanos somos ya más reacios a aceptar que una máquina cree. Hace poco me comentaba un músico e ingeniero en telecomunicaciones que quienes trabajan en composición musical automática son una pequeña minoría en los congresos relacionados con la computación aplicada a la música, y que la mayoría trabaja en el análisis, que permite cosas tan prácticas como detectar covers en youtube para solicitar la retirada de los vídeos.
En los trabajos de Andrew Sorensen, la máquina ejecuta un programa que él va modificando en tiempo real para “guiar” el proceso. En el vídeo pueden ver como añade, suprime y modifica instrucciones del programa, que por cierto está escrito en Lisp, un viejo conocido de quienes trabajan en Inteligencia Artificial.

Pueden encontrar más ejemplos y descargar software en su página web.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/9/2012.