AI 2019

Del av

Det är ett vanligt psykologiskt fenomen: om du upprepar ett ord tillräckligt många gånger förlorar det så småningom sin betydelse och faller sönder som en mjuk vävnad till ett fonetiskt ingenting. För många av oss föll uttrycket ”artificiell intelligens” sönder på detta sätt för länge sedan. AI finns överallt inom tekniken just nu och sägs driva allt från din TV till din tandborste, men aldrig har orden i sig haft mindre betydelse.

Det borde inte vara så här.

Men även om frasen ”artificiell intelligens” tveklöst, utan tvekan, missbrukas, gör tekniken mer än någonsin – både på gott och ont. Den används inom hälsovård och krigsföring; den hjälper människor att göra musik och böcker; den granskar ditt CV, bedömer din kreditvärdighet och finjusterar bilderna du tar i din telefon. Kort sagt, den fattar beslut som påverkar ditt liv, vare sig du gillar det eller inte.

Det kan vara svårt att förstå den hype och det bluff som teknikföretag och annonsörer talar om artificiell intelligens med. Ta till exempel Oral-B:s tandborste Genius X, en av de många apparater som presenterades på CES i år och som presenterade sina påstådda AI-funktioner. Men om man gräver bortom den översta raden i pressmeddelandet betyder det bara att den ger ganska enkel feedback om huruvida du borstar tänderna under rätt tid och på rätt ställen. Det finns några smarta sensorer som tar reda på var i munnen borsten befinner sig, men att kalla det artificiell intelligens är bara rappakalja.

När det inte finns någon hype inblandad, finns det missförstånd. Pressbevakningen kan överdriva forskningen och klistra in en bild av en Terminator på varje vagt AI-historia. Ofta beror detta på förvirring om vad artificiell intelligens ens är. Det kan vara ett knepigt ämne för icke-experter, och människor blandar ofta ihop dagens AI med den version de är mest bekanta med: en vetenskaplig vision av en medveten dator som är många gånger smartare än en människa. Experter hänvisar till denna specifika variant av AI som artificiell allmän intelligens, och om vi någonsin skapar något sådant kommer det troligen att ligga långt fram i tiden. Fram till dess är ingen hjälpt av att överdriva intelligensen eller kapaciteten hos AI-system.

Vad är AI egentligen? (Medurs från toppen: en modell från filmen Metropolis, Oral-B:s AI-tandborste, en autonom leveransrobot).

Det är alltså bättre att tala om ”maskininlärning” än om AI. Detta är ett delområde inom artificiell intelligens, som omfattar i stort sett alla de metoder som har störst inverkan på världen just nu (inklusive det som kallas djupinlärning). Som fras har det inte samma mystik som ”AI”, men det är mer användbart för att förklara vad tekniken gör.

Hur fungerar maskininlärning? Under de senaste åren har jag läst och tittat på dussintals förklaringar, och den distinktion som jag har funnit mest användbar finns redan i namnet: maskininlärning handlar om att göra det möjligt för datorer att lära sig på egen hand. Men vad det innebär är en mycket större fråga.

Låt oss börja med ett problem. Säg att du vill skapa ett program som kan känna igen katter. (Det är alltid katter av någon anledning). Du skulle kunna försöka göra detta på gammaldags vis genom att programmera in explicita regler som ”katter har spetsiga öron” och ”katter är lurviga”. Men vad skulle programmet göra när du visar det en bild på en tiger? Att programmera in varje regel som behövs skulle vara tidskrävande, och du skulle behöva definiera alla möjliga svåra begrepp på vägen, som ”pälsighet” och ”spetsighet”. Det är bättre att låta maskinen lära sig själv. Så du ger den en stor samling kattbilder, och den tittar igenom dem för att hitta sina egna mönster i det den ser. Den kopplar ihop punkterna, ganska slumpmässigt till en början, men du testar den om och om igen och behåller de bästa versionerna. Med tiden blir den ganska bra på att säga vad som är en katt och vad som inte är en katt.

Så långt, så förutsägbart. Faktum är att du förmodligen har läst en sådan här förklaring förut, och jag ber om ursäkt för det. Men det viktiga är inte att läsa glosan utan att verkligen tänka på vad glosan innebär. Vilka är sidoeffekterna av att låta ett beslutssystem lära sig på det här sättet?

Nja, den största fördelen med den här metoden är den mest uppenbara: du behöver aldrig programmera den. Visst, du gör en jäkla massa pyssel, förbättrar hur systemet bearbetar data och kommer på smartare sätt att ta in informationen, men du talar inte om för det vad det ska leta efter. Det betyder att det kan upptäcka mönster som människor kanske missar eller aldrig kommer på. Och eftersom allt programmet behöver är data – 1:or och 0:or – finns det så många jobb du kan utbilda det till eftersom den moderna världen är full av data. Med en hammare för maskininlärning i handen är den digitala världen full av spikar redo att slås på plats.

Maskiner som lär sig själva kan ge kraftfulla resultat, som DeepMinds serie av AI-system som spelar Go-play.
Foto av Google via Getty Images

Men tänk också på nackdelarna. Om du inte uttryckligen undervisar datorn, hur vet du då hur den fattar sina beslut? Maskininlärningssystem kan inte förklara sitt tänkande, och det innebär att din algoritm kan prestera bra av fel skäl. Eftersom allt datorn känner till är de uppgifter som du matar den med kan den också få en fördomsfull bild av världen, eller så kanske den bara är bra på smala uppgifter som liknar de uppgifter som den har sett tidigare. Den har inte det sunda förnuft som du förväntar dig av en människa. Du kan bygga världens bästa program för kattigenkänning, men det skulle aldrig berätta för dig att kattungar inte bör köra motorcykel eller att det är mer troligt att en katt kallas ”Tiddles” än ”Megalorth the Undying.”

Att lära datorer att lära sig själva är en lysande genväg. Och som alla genvägar innebär den att man måste göra avkall på detaljer. Det finns intelligens i AI-system, om man vill kalla det så. Men det är inte organisk intelligens, och den spelar inte efter samma regler som människor gör. Man kan lika gärna fråga: hur smart är en bok? Vilken expertis är kodad i en stekpanna?

Så var står vi nu med artificiell intelligens? Efter åratal av rubriker som meddelar nästa stora genombrott (vilket, ja, de har inte riktigt slutat än) anser vissa experter att vi har nått något av en platå. Men det är egentligen inget hinder för framsteg. På forskningssidan finns det enormt många vägar att utforska inom ramen för vår befintliga kunskap, och på produktsidan har vi bara sett toppen av det algoritmiska isberget.

Kai-Fu Lee, riskkapitalist och före detta AI-forskare, beskriver det nuvarande ögonblicket som ”implementeringens tidsålder” – ett ögonblick då tekniken börjar ”rinna ut ur laboratoriet och ut i världen”. Benedict Evans, en annan VC-strateg, jämför maskininlärning med relationsdatabaser, en typ av företagsprogramvara som gjorde förmögenheter på 90-talet och revolutionerade hela branscher, men det är så vardagligt att dina ögon förmodligen blev glasartade bara när du läste dessa två ord. Poängen som båda dessa personer gör är att vi nu är vid den punkt där AI kommer att bli normal snabbt. ”Så småningom kommer i stort sett allting att ha någonstans inuti och ingen kommer att bry sig”, säger Evans.

Han har rätt, men vi är inte där ännu.

Här och nu är artificiell intelligens – maskininlärning – fortfarande något nytt som ofta är oförklarligt eller underutforskat. Så i veckans specialnummer av The Verge, AI Week, ska vi visa dig hur allt händer just nu, hur den här tekniken används för att förändra saker och ting. För i framtiden kommer det att vara så normalt att du inte ens kommer att märka det.

Underhållning

Den svartvita Snyder Cut är definitivt svartvit och definitivt fortfarande 4:3

Microsoft

Halo Infinites utvecklare krossade ett piano för att spela in ljud till spelet

Policy

Lokalsamtal utan områdeskodning kommer i stort sett att försvinna i oktober – men av en bra anledning

Visa alla nyheter inom Teknik