A finales de abril de 2020, una empresa llamada OpenAI subió docenas de nuevas canciones a SoundCloud, todas ellas tituladas de forma práctica como «Hip-hop, al estilo de Nas» o «Pop, al estilo de Katy Perry». Se podría perdonar que se pensara inicialmente que las canciones son versiones normales de YouTube. Unos pocos segundos de escucha de la producción gárgara, las letras extrañas y las voces espeluznantes te harán cambiar de opinión.
Todas las canciones se hicieron utilizando un software de inteligencia artificial llamado Jukebox, diseñado por OpenAI, una organización de investigación multimillonaria que lidera el campo de la investigación de la IA. Jukebox no es el típico imitador de Elvis: Tras ser entrenado con 1,2 millones de canciones y otros datos sobre géneros y artistas, la red neuronal ha aprendido a producir música original con el estilo increíblemente reconocible de artistas famosos como Elton John y Rihanna. Se trata de una tecnología novedosa e impresionante, un modelo informático que ha descubierto cómo generar canciones reales, incluidas las voces, en audio crudo.
Cuando la mayoría de la gente piensa en la música generada por la IA, probablemente le venga a la mente algo como Jukebox: una arquitectura de código en expansión que domina el arte de la imitación, creando música que podría revivir las carreras de artistas muertos hace tiempo o crear otras nuevas a partir de ceros y unos. Esta imagen podría explicar por qué, cuando OpenAI anunció formalmente la herramienta a finales de abril, las reacciones en Twitter oscilaron entre «¡Esto es un trabajo increíble!», «esto es increíblemente genial y a la vez profundamente maldito» y el premonitorio «El reemplazo del intelecto humano & la creatividad está seguramente llegando, ladrillo tras ladrillo».»
«Encuentro la ‘inteligencia artificial’… un poco ofuscante», dice Holly Herndon durante un reciente videochat desde su apartamento de Berlín. Aunque no es ajena a la IA (el álbum más reciente de la música electrónica y avant-pop, PROTO, se hizo con una incipiente IA a la que llamó Spawn), Herndon cree que las cargadas implicaciones del término -sobre los señores robots y la obsolescencia humana- desconciertan su función real en la música. La mayor parte de la creación musical automatizada se lleva a cabo mediante el aprendizaje automático: se entrena a un modelo para que analice las canciones existentes, identifique patrones a partir de los datos y utilice este conocimiento para generar su propia música. Se trata de un proceso ya habitual que apenas evoca el mismo dramatismo de ciencia ficción que la «IA».»
«El aprendizaje automático no suena tan sexy», dice Herndon, «pero describe lo que ocurre. Una máquina está aprendiendo. Y está aprendiendo de la inteligencia humana».
Tal y como se utiliza actualmente en los titulares y en las imaginaciones distópicas, la «IA» conlleva un sensacionalismo que sugiere que cada nuevo avance en la música nos acerca a un futuro de estrellas del pop robóticas. Pero la realidad de la música con IA es menos glamurosa y menos distópica que eso. Por un lado, ya está aquí: existe de diversas maneras, supervisada por personas con diversos objetivos finales y, como señala Herndon, aprendiendo silenciosamente de ellas cómo comportarse. Aunque los resultados finales podrían ser tecnológicamente distópicos, Herndon señala que nada está escrito en piedra; el futuro de la IA en la música todavía se está esculpiendo, un camino moldeado por la colaboración y el conflicto entre cualquier número de partes interesadas. «Creo que lo que la gente teme con la IA no es necesariamente la tecnología», reflexiona Herndon, sino «la sociedad infernal que los seres humanos construirían con esa tecnología».
Cuando se utiliza como vehículo para expandir la creatividad humana, la IA no es necesariamente una amenaza. En PROTO, un álbum que palpita con la experimentación pero que se mantiene firmemente centrado en el ser humano, Herndon entrelaza la producción sintética de Spawn con un amplio conjunto coral para crear momentos de profunda emoción. Mezclando lo humano y lo robótico en uno solo, Herndon dirige la IA junto con los demás miembros de la banda; Spawn proporciona momentos de creatividad y musicalidad innovadora, pero Herndon es quien tiene el control.
Los músicos que experimentan con la IA son a veces tachados de artificiosos, a pesar de las legítimas razones artísticas para colaborar con la tecnología. Cuando el equipo de hackatón convertido en banda DADABOTS quedó en segundo lugar en el Concurso de Canción de IA que sustituyó a Eurovisión este año, utilizaron una IA entrenada en un estudio de acapellas, pop y metal de los años 50. Otros equipos produjeron canciones con máquinas entrenadas con sonidos de la fauna australiana y textos extraídos de hilos de Reddit. CJ Carr, miembro de DADABOTS, afirma que el aprendizaje automático les permite convertir conceptos fantásticos e inspiraciones inverosímiles en música real. Con la IA, «nuestra capacidad de recopilar, producir música y colaborar con docenas o cientos de artistas se amplía», dice Carr.
Pero eso no significa que la tecnología esté cerca de crear (buena) música por sí sola. El compañero de banda de Carr, Zack Zukowski, subraya cómo la intervención humana fue fundamental para su éxito en AI Eurovisión: «Tratamos a la IA como si fuera un intérprete más en nuestro estudio.» Por cierto, el equipo que dejó que la IA tomara la delantera quedó en último lugar. Incluso siendo el mayor avance reciente en la generación automatizada de música, Jukebox sigue teniendo limitaciones evidentes. En las primeras muestras queda claro que la herramienta aún no ha descubierto las estructuras de los coros y a menudo se desvía hacia los gritos distorsionados. Por ahora, no hay comparación entre la música hecha por humanos y la generada por la IA. Incluso si la hubiera, nuestro apego emocional a los elementos humanos de la música sugiere que es poco probable que abandonemos la música hecha por personas de la vida real a corto plazo.
«Creo que lo que la gente teme con la IA no es necesariamente la tecnología, sino la sociedad infernal que los seres humanos construirían con esa tecnología».
Entonces, ¿por qué molestarse con la música de la IA si sólo estamos vertiendo interminables horas y miles de millones de dólares en una máquina que sólo puede imitar pobremente lo que los humanos ya han descubierto? Bueno, la respuesta depende de a quién se le pregunte. Para los músicos experimentales, la IA es una forma de crear sonidos como no se han escuchado antes. Mientras que a algunos interesados les puede interesar producir canciones con sólo pulsar un botón, evitando así el coste de los derechos de autor de los artistas. Otros se mueven puramente por la innovación por la innovación, encarnando el mantra de Facebook de «moverse rápido y romper cosas». Muchos otros aún no están convencidos de que la IA aporte algo bueno a lo que se considera en gran medida una forma de arte innatamente humana.
Para los optimistas, la IA tiene potencial para encajar en una narrativa de democratización de la música. Stephen Phillips, director general de Popgun, una startup con productos que incluyen una aplicación que los niños pueden utilizar para crear canciones con IA, confía en que el hecho de que más personas puedan experimentar con el sonido sólo beneficiará a la música a largo plazo. «Nuestra tesis se ha convertido en que la mayor aplicación de la IA en la música no será sustituir a los músicos, sino hacer que todo el mundo se sienta músico», dice Phillips.
Las tecnologías que ayudan a que más personas se sientan músicos, tal vez incluso a cambiar la idea de quién cuenta como músico, han impulsado la música desde hace tiempo, facilitando el nacimiento de géneros enteros, desde el hip-hop hasta el tecno. Cabe señalar que esas tecnologías, que ahora se elogian en gran medida como enormes contribuciones a la industria, se enfrentaron a sus propias reacciones en el momento de su introducción. Se acusó a los vocoders de corromper la integridad musical, las cajas de ritmos fueron deploradas por ser un sustituto de los bateristas humanos y los sintetizadores fueron despreciados por no tener alma.
Quizás algunas de las resistencias similares a la música de la IA se desvanezcan a medida que den paso a la comprensión de las nuevas posibilidades musicales. Incluso las primeras tecnologías, como el piano, señala Zukowski, «dieron a Mozart la capacidad de tener notas tranquilas y fuertes», ampliando nuestra comprensión de lo que puede ser la música.
Sin embargo, sería muy ingenuo sugerir que los humanos sólo se benefician de esta tecnología. Incluso como alguien que se entusiasma con la música de la IA, Herndon está al borde de la posibilidad de que la IA perjudique a los mismos artistas cuyas discografías entrena, los músicos que efectivamente hicieron de la máquina lo que es. Le parece alarmante que Jukebox se centre en la suplantación de identidad, hasta el punto de que se puso en contacto con el equipo de OpenAI para expresar su preocupación. «Es un enfoque con mucho derecho sobre la persona y los datos de otras personas», me dice Herndon, «tomar la imagen de un artista, entrenar sobre ella y luego lanzar cosas a la imagen de otra persona sin su permiso».
El problema de Herndon con Jukebox tiene que ver con una complicada cuestión de propiedad intelectual que ha plagado la música de IA desde el principio (así como el sampling antes de ella). Aunque el derecho al uso justo no debe restringirse a la ligera, Herndon subraya que el campo de la ley de la música de la IA, en constante evolución, tendrá que tener en cuenta los defectos sistémicos que influyen tanto en nuestros algoritmos como en los humanos que los controlan. Teniendo en cuenta los problemas de sesgo racial que tanto se han debatido en el ámbito de la tecnología y el historial bien documentado de la industria musical de pagar mal a los músicos negros, la probabilidad de un efecto racializado de la música con IA no es insustancial. Herndon teme que la música con IA pueda producir un efecto de «golpear hacia abajo» en lugar de «golpear hacia arriba», en el que las grandes empresas se beneficien de las laxas leyes de propiedad intelectual, mientras que los músicos independientes queden sin cobrar y sin reconocimiento.
«Toda la tecnología da poder a la gente… y este poder se puede dar a los artistas. Estoy tomando esta tecnología y poniéndola en manos de productores que tienen algo que expresar.»
Algo así puede estar ocurriendo en los campos en los que la IA ya ha penetrado. Michael Donaldson, propietario de una empresa de licencias musicales, me cuenta que en su sector, la música de producción -las canciones de fondo que los creadores de contenidos licencian para vídeos, podcasts y otros medios- es cada vez más un caldo de cultivo para el desarrollo de la IA. Dado que la mayor parte de la música de producción ya está adaptada a métricas favorables a los creadores, como «feliz» o «corporativo», el producto humano ya está hecho de forma algorítmica. «Todo lo que se puede hacer según las especificaciones lo puede hacer un ordenador», dice Donaldson.
Aunque la música de producción tiende a ser tachada de trabajo genérico y poco creativo, es un campo lucrativo que da trabajo a muchos músicos profesionales. Pero dado que la IA genera música de producción mucho más rápido que los humanos, y aparentemente puede hacerlo también, una eventual toma de posesión no es impensable. «Esa industria está muerta», predice Phillips, si la IA continúa su dominio. No es descabellado imaginar que la tecnología acabe por extenderse a otros ámbitos de la creación musical: las partituras de películas y los éxitos de las listas de éxitos.
Pero si existe un argumento que refute la posibilidad de una absorción por parte de la IA, su principio más convincente podría ser éste: A los humanos les gusta la música porque otros humanos la hacen. Nuestra capacidad de relacionarnos, de saber lo que nos habla la música, es algo que la IA no está ni siquiera cerca de averiguar. «No sabe cómo, ya sabes, esa canción simplemente golpea ese verano», dice Herndon. «Para eso se necesita un cerebro y unos oídos humanos».
Por ahora, los artistas que trabajan con el aprendizaje automático están optando por centrarse en cómo pueden utilizar esta tecnología para aumentar y no sustituir sus propios proyectos creativos. El próximo proyecto de Herndon implica una actualización seria de Spawn. DADABOTS está lanzando una iniciativa contra la brutalidad policial utilizando Jukebox para generar cientos de versiones de «tha Police» de N.W.A. en diferentes géneros. Seleccionarán las 100 mejores para publicarlas gratuitamente y organizarán un concurso de remezclas, una protesta musical que pretende ayudar a quienes tienen algo que decir a encontrar nuevas formas de hacerlo.
«Toda la tecnología da poder a la gente… y este poder se puede dar a los artistas», dice Carr. «Así que lo estamos tomando. Estoy tomando esta tecnología y poniéndola en manos de productores que tienen algo que expresar.» Usada así, la IA permite nuevas colaboraciones y amplifica nuevas voces, las mismas cosas que hacen grande a la música. ¿Y la idea de hacer tal cosa, de enviar tal mensaje, en primer lugar? Eso es un esfuerzo totalmente humano.