Come sarà il futuro dell’intelligenza artificiale nella musica?

A fine aprile 2020, una società chiamata OpenAI ha caricato decine di nuovi brani su SoundCloud, tutti intitolati in modo semplice come “Hip-hop, nello stile di Nas” o “Pop, nello stile di Katy Perry”. Sareste perdonati se all’inizio pensaste che le canzoni sono cover medie di YouTube. Pochi secondi passati ad ascoltare la produzione gargarizzata, i testi bizzarri e le voci inquietanti ti farebbero sicuramente cambiare idea.

Le canzoni sono state tutte realizzate utilizzando un software di intelligenza artificiale chiamato Jukebox, progettato da OpenAI, un’organizzazione di ricerca da un miliardo di dollari leader nel campo della ricerca AI. Jukebox non è il classico imitatore di Elvis: Dopo essere stato addestrato su 1,2 milioni di canzoni e altri dati su generi e artisti, la rete neurale ha imparato a produrre musica originale nello stile incredibilmente riconoscibile di artisti famosi come Elton John e Rihanna. Si tratta di una tecnologia nuova e impressionante, un modello di computer che ha capito come generare canzoni vere e proprie, comprese le voci, nell’audio grezzo.

Quando la maggior parte delle persone pensa alla musica generata dall’IA, probabilmente viene in mente qualcosa come Jukebox – un’architettura tentacolare di codice che sta padroneggiando l’arte dell’imitazione, creando musica che potrebbe far rivivere le carriere di artisti morti da tempo o crearne di nuove da zero e uno. Questo immaginario potrebbe spiegare perché quando OpenAI ha annunciato formalmente lo strumento alla fine di aprile, le reazioni su Twitter variavano da “Questo è un lavoro incredibile!” a “questo è sia incredibilmente cool che profondamente maledetto” al presagio “La sostituzione dell’intelletto umano & creatività sta sicuramente arrivando, mattone dopo mattone.”

“Trovo ‘intelligenza artificiale’… un po’ offuscante”, dice Holly Herndon durante una recente video chat dal suo appartamento a Berlino. Non è estranea all’IA (l’album più recente della musicista elettronica e avant-pop, PROTO, è stato fatto con un’IA nascente che ha chiamato Spawn), Herndon pensa che le implicazioni cariche del termine – di signori dei robot e obsolescenza umana – mistifichino la sua funzione reale nella musica. La maggior parte della creazione musicale automatizzata avviene attraverso l’apprendimento automatico: addestrare un modello per analizzare le canzoni esistenti, identificare i modelli dai dati e usare questa conoscenza per generare la propria musica. È un processo ormai comune che difficilmente evoca lo stesso dramma fantascientifico di “AI.”

“L’apprendimento automatico non suona così sexy”, dice Herndon, “Ma descrive quello che sta succedendo. Una macchina sta imparando. E sta imparando dall’intelligenza umana.”

Come è attualmente usato nei titoli dei giornali e nelle immagini distopiche, “AI” porta con sé un sensazionalismo che suggerisce che ogni nuovo sviluppo nella musica ci sta portando più vicini a un futuro di robot pop star. Ma la realtà della musica AI è sia meno glamour che meno distopica di così. Per prima cosa, è già qui – esistente in vari modi, supervisionata da persone con vari obiettivi finali, e, come Herndon sottolinea, imparando tranquillamente da loro come comportarsi. Mentre i risultati finali potrebbero essere tecno-distopici, Herndon sottolinea che nulla è fissato nella pietra; il futuro dell’IA nella musica è ancora in via di definizione, un percorso modellato dalla collaborazione e dal conflitto tra qualsiasi numero di parti interessate. “Penso che ciò che la gente teme con l’IA non sia necessariamente la tecnologia”, riflette Herndon, ma piuttosto “la società infernale che gli esseri umani costruirebbero con quella tecnologia”. Su PROTO, un album che pulsa di sperimentazione ma rimane saldamente incentrato sull’uomo, Herndon intreccia la produzione sintetica di Spawn con un ampio ensemble corale per creare momenti di profonda emozione. Fondendo il distintamente umano e il distintamente robotico in uno solo, Herndon sta sia curando che dirigendo l’IA insieme agli altri membri della band; Spawn fornisce momenti di creatività e musicalità innovativa, ma Herndon è quello che ha il controllo.

I musicisti che sperimentano con l’IA sono a volte liquidati come gimmicky, nonostante le legittime ragioni artistiche per collaborare con la tecnologia. Quando l’hackathon-team-turned-band DADABOTS si è piazzato secondo nell’AI Song Contest che ha sostituito l’Eurovision quest’anno, hanno usato una AI addestrata su un sondaggio di acapella degli anni ’50, pop, metal e altro. Altre squadre hanno prodotto canzoni con macchine addestrate su suoni della fauna australiana e testi presi da thread di Reddit. Il membro dei DADABOTS CJ Carr dice che l’apprendimento automatico permette loro di far girare concetti fantastici e ispirazioni inverosimili in musica reale. Con l’AI, “la nostra capacità di raccogliere, produrre musica e collaborare con decine o centinaia di artisti si espande”, dice Carr.

Ma questo non significa che la tecnologia sia lontana dal creare (buona) musica da sola. Il compagno di band di Carr, Zack Zukowski, sottolinea come l’intervento umano sia stato fondamentale per il loro successo all’AI Eurovision, dicendo: “Abbiamo trattato l’AI come se fosse solo un altro artista nel nostro studio”. Per inciso, la squadra che ha lasciato che l’AI prendesse il comando ha ottenuto l’ultimo posto. Anche come il più grande passo avanti recente nella generazione automatica di musica, Jukebox ha ancora evidenti limiti. È chiaro nei primi campioni che lo strumento non ha ancora capito le strutture dei cori e spesso vira in urla distorte. Per ora, non c’è paragone tra la musica fatta dall’uomo e la sua controparte generata dall’IA. Anche se ci fosse, il nostro attaccamento emotivo agli elementi umani della musica suggerisce che difficilmente rinunceremo presto alla musica fatta da persone reali.

“Penso che ciò che la gente teme con l’IA non è necessariamente la tecnologia, la società infernale che gli esseri umani costruirebbero con quella tecnologia”.

Perciò perché preoccuparsi della musica AI se stiamo solo versando ore infinite e miliardi di dollari in una macchina che può solo imitare malamente ciò che gli umani hanno già capito? Beh, la risposta dipende da chi lo chiede. Per i musicisti sperimentali, l’IA è un modo per creare suoni come nessuno ha mai sentito prima. Mentre alcune parti interessate potrebbero essere interessate a sfornare canzoni al tocco di un pulsante, evitando in seguito il costo delle royalties dell’artista. Altri sono guidati puramente dall’innovazione per amore dell’innovazione, incarnando il mantra di Facebook di “muoversi velocemente e rompere le cose”. Molti altri non sono ancora convinti che l’IA contribuisca a qualcosa di buono a quella che è largamente considerata una forma d’arte innatamente umana.

Per gli ottimisti, l’IA ha il potenziale per inserirsi in una narrativa di democratizzazione della musica. Stephen Phillips, CEO di Popgun, una startup con prodotti che includono un’app che i bambini possono usare per creare canzoni con l’AI, è fiducioso che più persone in grado di sperimentare con il suono non potrà che beneficiare la musica nel lungo periodo. “La nostra tesi è diventata che la più grande applicazione dell’IA nella musica non sarà quella di sostituire i musicisti, ma di far sentire tutti come un musicista”, dice Phillips.

Le tecnologie che aiutano più persone a sentirsi musicisti, forse anche cambiando l’idea di chi conta come un musicista, hanno spinto la musica in avanti, facilitando la nascita di interi generi, dall’hip-hop alla techno. Vale la pena notare che quelle tecnologie, oggi largamente lodate come enormi contributi all’industria, hanno affrontato le loro reazioni all’epoca della loro introduzione. I vocoder furono accusati di corrompere l’integrità musicale, le drum machine furono deplorate come un sostituto dei batteristi umani, e i synth furono denigrati come senz’anima.

Forse una parte della resistenza simile alla musica AI svanirà quando lascerà il posto alla comprensione delle nuove possibilità musicali. Anche la prima tecnologia come il pianoforte, sottolinea Zukowski, “ha dato a Mozart la capacità di avere note tranquille e forti”, espandendo la nostra comprensione di ciò che la musica potrebbe essere.

Anche se sarebbe profondamente ingenuo suggerire che gli umani servono solo a beneficiare di questa tecnologia. Anche come qualcuno che è entusiasta della musica AI, Herndon è sul filo del rasoio per il serio potenziale dell’AI di danneggiare gli stessi artisti sulle cui discografie si allena, i musicisti che hanno effettivamente reso la macchina quello che è. Ha trovato l’attenzione di Jukebox sull’impersonificazione allarmante, al punto che ha contattato il team OpenAI con le sue preoccupazioni. “È un approccio molto autorizzato alla personalità e ai dati di altre persone”, mi dice Herndon, “prendere le sembianze di un artista, allenarsi su questo, e poi rilasciare cose con l’immagine di qualcun altro senza il loro permesso.”

Il problema di Herndon con Jukebox coinvolge una questione spinosa di proprietà intellettuale che ha afflitto la musica AI fin dall’inizio (così come il campionamento prima di esso). Mentre il diritto al fair use non è da limitare alla leggera, Herndon sottolinea che il campo in evoluzione del diritto musicale dell’IA dovrà tenere conto dei difetti sistemici che influenzano sia i nostri algoritmi che gli umani che li controllano. Dati i problemi molto discussi di bias razziali della tecnologia e la storia ben documentata dell’industria musicale di sottopagare i musicisti neri, la probabilità di un effetto razziale dalla musica AI non è inconsistente. Herndon teme che la musica AI potrebbe produrre un effetto “punching down” piuttosto che “punching up” dove le grandi aziende raccolgono i benefici delle leggi sulla proprietà intellettuale lassiste mentre i musicisti indipendenti non vengono pagati e non riconosciuti.

“Tutta la tecnologia dà potere alle persone … e questo potere può essere dato agli artisti. Sto prendendo questa tecnologia e la sto mettendo nelle mani dei produttori che hanno qualcosa da esprimere”.

Qualcosa del genere potrebbe accadere nei campi in cui l’IA è già penetrata. Michael Donaldson, che possiede una società di licenze musicali, mi dice che nel suo settore, la musica di produzione – le canzoni di sottofondo che i creatori di contenuti danno in licenza per video, podcast e altri media – è sempre più un terreno fertile per lo sviluppo dell’IA. Dal momento che la maggior parte della musica di produzione è già adattata a metriche creator-friendly come “felice” o “aziendale”, il prodotto umano è già fatto algoritmicamente. “Tutto ciò che può essere fatto su misura può essere fatto da un computer”, dice Donaldson.

Anche se la musica di produzione tende ad essere liquidata come un lavoro generico e non creativo, è comunque un campo redditizio che fornisce lavoro a molti musicisti professionisti. Ma dato che l’IA genera musica di produzione molto più velocemente degli umani, e apparentemente può farlo altrettanto bene, un’eventuale acquisizione non è impensabile. “Quell’industria è morta”, prevede Phillips, se l’IA continua la sua presa. Non è azzardato immaginare che la tecnologia si diffonda alla fine in altre aree della creazione musicale: colonne sonore e classifiche.

Ma se c’è un argomento che confuta la possibilità di una presa di potere dell’IA, il suo principio più convincente potrebbe essere questo: Agli esseri umani piace la musica perché altri esseri umani la fanno. La nostra capacità di relazionarci, di sapere cosa ci parla nella musica, è qualcosa che l’IA non è nemmeno lontanamente in grado di capire. “Non sa come, sai, quella canzone colpisce quell’estate”, dice Herndon. “

Per ora, gli artisti che lavorano con l’apprendimento automatico stanno scegliendo di concentrarsi su come possono usare questa tecnologia per aumentare piuttosto che sostituire i loro progetti creativi. Il prossimo progetto di Herndon prevede un serio aggiornamento di Spawn. DADABOTS sta lanciando un’iniziativa contro la brutalità della polizia utilizzando Jukebox per generare centinaia di versioni di “tha Police” degli N.W.A. in diversi generi. Cureranno le migliori 100 per il rilascio gratuito e ospiteranno un concorso di remix, una protesta musicale intesa ad aiutare coloro che hanno qualcosa da dire a trovare nuovi modi per dirlo.

“Tutta la tecnologia dà potere alle persone … e questo potere può essere dato agli artisti”, dice Carr. “Quindi lo stiamo prendendo. Sto prendendo questa tecnologia e la sto mettendo nelle mani di produttori che hanno qualcosa da esprimere”. Usata in questo modo, l’AI permette nuove collaborazioni e amplifica nuove voci, proprio le cose che rendono grande la musica. E l’idea di fare una cosa del genere, di inviare un messaggio del genere, in primo luogo? Questo è uno sforzo interamente umano.