I slutet av april 2020 laddade ett företag vid namn OpenAI upp dussintals nya låtar till SoundCloud, alla med sakliga titlar som ”Hip-hop, i stil med Nas” eller ”Pop, i stil med Katy Perry”. Du skulle vara förlåten om du till en början trodde att låtarna var genomsnittliga YouTube-covers. Några sekunder av den gurglande produktionen, de bisarra texterna och den kusliga sången skulle definitivt få dig att ändra dig.
Låtarna har alla skapats med hjälp av en mjukvara för artificiell intelligens som heter Jukebox och som har utformats av OpenAI, en miljarddollarstor forskningsorganisation som är ledande inom AI-forskningen. Jukebox är inte en vanlig Elvis-imitatör: Efter att ha tränats på 1,2 miljoner låtar och andra uppgifter om genrer och artister har det neurala nätet lärt sig att producera originalmusik i en stil som känns igen från kända artister som Elton John och Rihanna. Det är ny och imponerande teknik, en datormodell som har listat ut hur man genererar riktiga låtar, inklusive sång, i obearbetat ljud.
När de flesta människor tänker på AI-genererad musik kommer förmodligen något som Jukebox i åtanke – en spretig arkitektur av kod som behärskar konsten att imitera, och som skapar musik som skulle kunna återuppliva karriärer för sedan länge döda artister eller skapa nya ur nollor och ettor. Det bildspråket kan förklara varför när OpenAI formellt tillkännagav verktyget i slutet av april, varierade reaktionerna på Twitter från ”Det här är ett fantastiskt arbete!” till ”Det här är både otroligt häftigt och djupt förbannat” till det fördomsfulla ”Ersättandet av mänskligt intellekt & kreativitet kommer säkert, tegelsten efter tegelsten.”
”Jag tycker att ’artificiell intelligens’… är lite fördunklande”, säger Holly Herndon under en videochatt nyligen från sin lägenhet i Berlin. Herndon är inte främmande för artificiell intelligens (den elektroniska och avant-pop-musikerns senaste album, PROTO, gjordes med en begynnande artificiell intelligens som hon kallade Spawn), men hon anser att begreppets laddade implikationer – om robotöverherrar och mänsklig föråldring – mystifierar dess egentliga funktion i musiken. Det mesta automatiserade musikskapandet sker genom maskininlärning: man tränar en modell för att analysera befintliga låtar, identifiera mönster i data och använda denna kunskap för att generera sin egen musik. Det är en numera vanlig process som knappast framkallar samma sci-fi-drama som ”AI”.
”Maskininlärning låter inte lika sexigt”, säger Herndon, ”men det beskriver vad som händer. En maskin lär sig. Och den lär sig av mänsklig intelligens.”
Som det för närvarande används i rubriker och dystopiska fantasier, bär ”AI” med sig en sensationslystnad som antyder att varje ny utveckling inom musiken för oss närmare en framtid med robotpopstjärnor. Men AI-musikens verklighet är både mindre glamorös och mindre dystopisk än så. För det första är den redan här – den existerar på olika sätt, övervakas av människor med olika slutmål och, som Herndon påpekar, lär sig i tysthet av dem hur den ska uppträda. Även om slutresultatet skulle kunna vara teknikdystopiskt påpekar Herndon att ingenting är hugget i sten; AI:s framtid inom musiken håller fortfarande på att ritas ut, en väg som formas av samarbete och konflikter mellan ett antal intressenter. ”Jag tror att det folk är rädda för när det gäller AI inte nödvändigtvis är tekniken”, funderar Herndon, utan snarare ”det helveteslandskap som människor skulle bygga med den tekniken.”
När AI används som ett medel för att utvidga mänsklig kreativitet är den inte nödvändigtvis ett hot. På PROTO, ett album som pulserar av experimenterande men ändå förblir orubbligt människocentrerat, väver Herndon samman Spawns syntetiska produktion med en svepande körensemble för att skapa ögonblick av djupa känslor. Herndon blandar det tydligt mänskliga och det tydligt robotiska till ett och är både kurator och regissör för AI tillsammans med de andra bandmedlemmarna; Spawn ger stunder av kreativitet och innovativ musikalitet, men Herndon är den som har kontrollen.
Musiker som experimenterar med AI avfärdas ibland som gimmickiga, trots legitima konstnärliga skäl för att samarbeta med tekniken. När det hackathon-team som blev ett band, DADABOTS, placerade sig på andra plats i AI-sångtävlingen som ersatte Eurovision i år, använde de en AI som tränats på en undersökning av 1950-talets acapella, pop, metal med mera. Andra lag producerade låtar med maskiner som tränats på ljud från australiensiska vilda djur och texter tagna från Reddit-trådar. DADABOTS-medlemmen CJ Carr säger att maskininlärning gör det möjligt för dem att spinna fantastiska koncept och långsökt inspiration till verklig musik. Med AI ”utökas vår förmåga att samla in, producera musik och samarbeta med dussintals eller hundratals artister”, säger Carr.
Men det betyder inte att tekniken är i närheten av att skapa (bra) musik på egen hand. Carrs bandkamrat Zack Zukowski betonar hur mänsklig inblandning var avgörande för deras framgång i AI Eurovision och säger: ”Vi behandlade AI som om det bara var en annan artist i vår studio”. För övrigt fick laget som lät AI ta ledningen den sista platsen. Även om Jukebox är det största genombrottet på senare tid inom automatiserad musikgenerering har den fortfarande uppenbara begränsningar. Det är tydligt i de tidiga exemplen att verktyget ännu inte har listat ut refrängstrukturer och ofta svänger in i förvrängt skrikande. För tillfället finns det ingen jämförelse mellan mänskligt skapad musik och dess AI-genererade motsvarighet. Även om det fanns en sådan, tyder vår känslomässiga koppling till musikens mänskliga element på att vi troligen inte kommer att ge upp musik som gjorts av verkliga människor i närtid.
”Jag tror att det som folk fruktar när det gäller artificiell intelligens inte nödvändigtvis är tekniken, utan det helveteslandskap som människor skulle bygga upp med hjälp av den tekniken.”
Så varför bry sig om AI-musik om vi bara häller oändliga timmar och miljarder dollar i en maskin som bara dåligt kan efterlikna det som människor redan har listat ut? Svaret beror på vem du frågar. För experimentella musiker är AI ett sätt att skapa ljud som ingen hört förut. Medan vissa intressenter kanske är intresserade av att producera låtar genom att trycka på en knapp och på så sätt slippa kostnaden för artisters royalties. Andra drivs enbart av innovation för innovationens skull och förkroppsligar Facebooks mantra ”move fast and break things”. Många fler är fortfarande inte övertygade om att AI bidrar med något bra till det som i stort sett anses vara en inneboende mänsklig konstform.
För optimisterna har AI potential att passa in i en berättelse om musikdemokratisering. Stephen Phillips, vd för Popgun, ett nystartat företag med produkter som inkluderar en app som barn kan använda för att skapa låtar med AI, är övertygad om att fler människor som kan experimentera med ljud bara kommer att gynna musiken i det långa loppet. ”Vår tes har blivit att den största tillämpningen av AI inom musiken inte kommer att vara att ersätta musiker utan att få alla att känna sig som musiker”, säger Phillips.
Teknologier som hjälper fler människor att känna sig som musiker, kanske till och med förändrar idén om vem som räknas som musiker, har länge drivit musiken framåt och underlättat födelsen av hela genrer, från hiphop till techno. Det är värt att notera att dessa tekniker, som nu till stor del hyllas som enorma bidrag till branschen, mötte sina egna bakslag när de introducerades. Voodrar beskylldes för att förstöra den musikaliska integriteten, trummaskiner fördömdes som en ersättning för mänskliga trummisar och synthar fördömdes som själlösa.
Kanske kommer en del av det liknande motståndet mot AI-musik att avta i takt med att det ger plats åt förståelsen för nya musikaliska möjligheter. Även tidig teknik som pianot, påpekar Zukowski, ”gav Mozart förmågan att ha tysta och höga toner”, vilket utvidgade vår förståelse av vad musik kan vara.
Det skulle dock vara djupt naivt att påstå att människor bara tjänar på att dra nytta av denna teknik. Till och med som en person som är entusiastisk över AI-musik är Herndon på kant med AI:s allvarliga potential att skada just de artister vars diskografier den tränar på, de musiker som faktiskt gjorde maskinen till vad den är. Hon fann Jukebox fokus på imitation oroväckande, till den grad att hon kontaktade OpenAI-teamet med sina farhågor. ”Det är en mycket berättigad inställning till andras personlighet och data”, säger Herndon till mig, ”att ta en konstnärs avbild, träna på det och sedan släppa saker i någon annans avbild utan deras tillstånd.”
Herndons problem med Jukebox involverar en knepig fråga om immateriell äganderätt som har plågat AI-musik från allra första början (och även sampling före det). Även om rätten till rättvis användning inte ska begränsas lättvindigt, betonar Herndon att det framväxande området AI-musiklagstiftning kommer att behöva ta hänsyn till de systemfel som påverkar både våra algoritmer och de människor som kontrollerar dem. Med tanke på teknikens mycket diskuterade problem med rasistiska fördomar och musikindustrins väldokumenterade historia av underbetalning av svarta musiker är sannolikheten för en rasifierad effekt av AI-musik inte obetydlig. Herndon fruktar att AI-musik kan ge en ”punching down”- snarare än en ”punching up”-effekt där stora företag skördar fördelarna av slappa immaterialrättsliga lagar medan oberoende musiker går obetalda och oerkända.
”All teknik ger människor makt … och denna makt kan ges till artister. Jag tar den här tekniken och lägger den i händerna på producenter som har något att uttrycka.”
Något liknande kan vara på väg att hända inom de områden som AI redan har trängt in på. Michael Donaldson, som äger ett musiklicensföretag, berättar för mig att i hans bransch är produktionsmusik – bakgrundslåtarna som innehållsskapare licensierar för videor, podcasts och andra medier – alltmer en grogrund för AI-utveckling. Eftersom den mesta produktionsmusiken redan är skräddarsydd för skaparevänliga mätvärden som ”happy” eller ”corporate” är den mänskliga produkten redan gjord algoritmiskt. ”Allt som kan göras enligt specifikation kan så småningom göras av en dator”, säger Donaldson.
Trots att produktionsmusik tenderar att avskrivas som generiskt, okreativt arbete är det ändå ett lukrativt område som ger arbete åt många professionella musiker. Men med tanke på hur AI genererar produktionsmusik mycket snabbare än människor, och till synes kan göra det lika bra, är ett eventuellt övertagande inte otänkbart. ”Den branschen är död”, förutspår Phillips, om AI fortsätter sitt grepp. Det är inte svårt att föreställa sig att tekniken så småningom sprider sig till andra områden av musikskapande: filmmusik och topplistor.
Men om det finns ett argument som motbevisar möjligheten av ett AI-övertagande, så kan dess mest övertygande grundsats vara detta: Människor gillar musik eftersom andra människor gör den. Vår förmåga att relatera till varandra, att veta vad som talar till varandra i musik, är något som AI inte ens är i närheten av att förstå. ”Den vet inte hur, du vet, den där låten bara träffar den sommaren”, säger Herndon. ”Det kräver en mänsklig hjärna och öron.”
För tillfället väljer de artister som arbetar med maskininlärning att fokusera på hur de kan använda den här tekniken för att komplettera snarare än ersätta sina egna kreativa projekt. Herndons nästa projekt innebär en seriös uppgradering av Spawn. DADABOTS lanserar ett initiativ mot polisbrutalitet och använder Jukebox för att generera hundratals versioner av N.W.A:s ” tha Police” i olika genrer. De kommer att välja ut de 100 bästa för gratis publicering och anordna en remixtävling, en musikalisk protest som ska hjälpa dem som har något att säga att hitta nya sätt att säga det.
”All teknik ger människor makt … och den här makten kan ges till artister”, säger Carr. ”Så vi tar den. Jag tar den här tekniken och lägger den i händerna på producenter som har något att uttrycka.” Används AI på detta sätt möjliggör AI nya samarbeten och förstärker nya röster, just de saker som gör musiken storartad. Och idén att göra en sådan sak, att skicka ett sådant budskap, i första hand? Det är en helt mänsklig ansträngning.