In juni 2016 zond Antonio Perkins onbedoeld zijn eigen dood uit voor de wereld. Het was een zonnige dag in Chicago, en hij deelde het op Facebook Live, een platform voor het verspreiden van video in realtime, slechts een paar maanden eerder uitgebracht.
De video is lang. Het toont Perkins doen alledaagse zomerdingen. Op de stoep staan. Hij klaagt over de hitte. Na ongeveer zes minuten klinken er plotseling geweerschoten. De camera beweegt verwoed, en valt dan op de grond. Later die dag werd Perkins dood verklaard.
De video is bijna een miljoen keer bekeken.
The Ugly
De volgende dag circuleerde er intern bij Facebook een memo genaamd “The Ugly”. De auteur, Andrew Bosworth, een van de vice-presidenten van het bedrijf en centrale besluitvormers.
“We praten vaak over het goede en het slechte van ons werk,” begint de memo, die in maart door BuzzFeed werd verkregen. “Ik wil het hebben over het lelijke.” Het gaat verder:
We verbinden mensen…Misschien kost het een leven door iemand bloot te stellen aan pesters. Misschien sterft er wel iemand bij een terroristische aanslag die wordt gecoördineerd met onze instrumenten. En toch verbinden we mensen met elkaar. De lelijke waarheid is dat we zo sterk geloven in het verbinden van mensen dat alles wat ons in staat stelt om meer mensen vaker te verbinden, de facto goed is.
In de memo wordt Perkins niet genoemd. Het is mogelijk dat Bosworth niet op de hoogte was van het incident. Real-time tragedies zijn immers niet zo zeldzaam op Facebook Live.
Maar de live-streamed dood van Perkins is een uitstekend voorbeeld van “The Ugly.” Hoewel zijn dood tragisch is, is de video niet in strijd met de abstruse gemeenschapsnormen van het bedrijf, omdat het geen “geweld verheerlijkt” of “het lijden of de vernedering van anderen viert”. En door de video te laten staan, zullen meer mensen in contact komen met Perkins, en met Facebook, dus blijft de video staan. Het heeft tenslotte een miljoen views.
De beslissing is een van de vele recente acties van Facebook die een nare smaak in je mond kunnen hebben achtergelaten. Het bedrijf stond onbewust de presidentiële campagne van Donald Trump toe om persoonlijke gegevens van miljoenen Amerikanen te verzamelen. Het merkte de pogingen van Rusland om de verkiezingen van 2016 te beïnvloeden niet op; faciliteerde etnisch en religieus geweld in verschillende landen; en stond adverteerders toe zich te richten op zulke nobele categorieën consumenten als “Jodenhaters”. Om nog maar te zwijgen van nepnieuws, samenzweringstheorieën en schaamteloze leugens op het platform.
Facebook had niet de intentie om dit alles te laten gebeuren. Het wilde alleen mensen met elkaar verbinden. Maar er loopt een rode draad van Perkins’ dood naar religieus geweld in Myanmar en de halfslachtige pogingen van het bedrijf om nepnieuws tegen te gaan. Facebook is echt slecht. Niet opzettelijk. Op een banale manier.
Achter alle fouten van Facebook schuilt een stuntelende onverschilligheid voor echte mensen. Door zich uitsluitend te richten op het “verbinden van mensen” heeft het bedrijf de wereld kunnen veroveren en een enorm netwerk van menselijke relaties kunnen creëren, een bron van inzichten en oogappels die adverteerders en investeerders doet kwijlen.
Maar het gebod om “mensen te verbinden” mist het enige ingrediënt dat essentieel is om een goede burger te zijn: Het behandelen van individuele mensen als onaantastbaar. Voor Facebook bestaat de wereld niet uit individuen, maar uit verbindingen tussen hen. De miljarden Facebook-accounts behoren niet tot “mensen”, maar tot “gebruikers”, verzamelingen datapunten die verbonden zijn met andere verzamelingen datapunten op een groot sociaal netwerk, die door computerprogramma’s kunnen worden gericht en te gelde gemaakt.
Er zijn bepaalde dingen die je niet in eer en geweten met mensen doet. Met gegevens kun je doen wat je wilt.
Het leven als database
Sinds de publieke publicatie van “The Ugly,” heeft Bosworth zich gedistantieerd van het argument dat in de memo wordt aangevoerd. Hij zegt nu dat hij alleen maar “problemen aan de oppervlakte wilde brengen” en dat hij, nogal ongelooflijk, “het er niet mee eens was, zelfs niet toen hij het schreef.” Mark Zuckerberg voegde eraan toe dat ook hij het sterk oneens was met de memo, en zei: “We hebben nooit geloofd dat het doel de middelen heiligt.”
Keer op keer hebben Facebooks keuzes echter laten zien dat het verbinden van mensen in bijna alle gevallen als een de facto goed wordt beschouwd. Daarom verdedigde Zuckerberg in een recent interview met Recode de beslissing om berichten toe te staan van ontkenners van zowel de Sandy Hook schietpartij als de Holocaust, door te zeggen dat ze gewoon “dingen verkeerd zien.”
Met Facebook is “het leven veranderd in een database,” schrijft technoloog Jaron Lanier in zijn boek You Are Not a Gadget uit 2010. De cultuur van Silicon Valley is als vaststaand gaan beschouwen, schrijft Lanier, dat “de hele werkelijkheid, inclusief de mens, één groot informatiesysteem is”. Deze zekerheid, zegt hij, geeft de machtigste mensen van de tech wereld “een nieuw soort manifest lot.” Het geeft ze “een missie om te volbrengen.”
Het accepteren van die missie komt Facebook goed uit. Het maakt zo snel mogelijk schalen een morele verplichting. In deze visie, hoe groter Facebook is, hoe beter het bedrijf is voor de wereld. Dit is toevallig ook de manier om het meeste geld te verdienen.
Het probleem, zegt Lanier, is dat er niets speciaals is aan mensen in dit informatiesysteem. Elk gegevenspunt wordt gelijk behandeld, ongeacht hoe de mens het ervaart. “Jodenhaters” is net zo goed een advertentiecategorie als “Moeders die joggen.” Het is allemaal data. Als groep A een grotere aanwezigheid heeft op Facebook dan groep B, dan is dat maar zo, zelfs als groep A probeert om de B’s te vernederen of geweld te organiseren tegen hen. De realiteit is natuurlijk dat mensen allemaal anders zijn, en niet kunnen worden gereduceerd tot data.
Probeer dat maar eens te vertellen aan de groep blanke Ivy League-jongens die Facebook begonnen als een hot-or-not website en een gezichtsherkenningsvat uitvonden.
Wat het betekent om te denken
De fout van Facebook is niet nieuw. In het algemeen gaat het er lelijk aan toe als grote, machtige organisaties geen rekening houden met de menselijkheid van anderen. We gaan het nu hebben over nazi’s.
De beste analyse van Facebooks intellectuele falen komt van politiek theoreticus Hannah Arendt in haar boek Eichmann in Jeruzalem. Het boek is een verslag van het proces van Adolf Eichmann in 1961. Eichmann was een middenklasse nazi-bureaucraat en was hoofdverantwoordelijk voor de logistiek van het gedwongen transport van Joden naar concentratiekampen tijdens de Tweede Wereldoorlog.
Eichmann werd gevangen genomen in Argentinië en voor een Israëlische rechtbank gebracht om zijn misdaden uit te leggen. Alle aanwezigen verwachtten dat hij een sadistische gek zou zijn, pervers geobsedeerd door de vernietiging van het Joodse volk.
In plaats daarvan ontpopte hij zich als een hansworst en een carrièreman. Hij beweerde de details van belangrijke politieke gebeurtenissen te zijn vergeten, terwijl hij zich duidelijk herinnerde wie van zijn gelijken een promotie kreeg die hij begeerde. Volgens Arendt verklaarde een Israëlische rechtbankpsychiater die Eichmann onderzocht, dat hij “een volkomen normale man was, normaler in ieder geval dan ik ben na hem onderzocht te hebben.”
De vraag die Arendt achtervolgde was hoe zo’n “normale” man een grote rol had kunnen spelen in massamoord. Eichmann stuurde willens en wetens duizenden Joden naar een zekere dood.
Arendt concludeert dat het noch sadisme noch haat was die Eichmann dreef tot het begaan van deze historische misdaden. Een “doorslaggevende” tekortkoming in zijn karakter, schrijft Arendt, was zijn “onvermogen om ooit iets vanuit het gezichtspunt van de ander te bekijken.”
Hoe kwam het dat Eichmann, en honderden andere nazi’s, er niet in slaagden een fundamenteel begrip te hebben van de onschendbaarheid van het menselijk leven? Het antwoord ligt in Eichmanns geloof in een groots, historisch project om een raciaal zuiver “utopia” te stichten. Dit project overstijgt mensenlevens en maakt ze secundair. Eén leven, of een miljoen levens, waren een kleine prijs voor de belofte van een “Duizendjarig Rijk.”
Eichmanns onvermogen om aan het lijden van anderen te denken, kwam voort uit zijn verinnerlijking van het opperste belang van een groot project, concludeert Arendt. Omdat het project koste wat het kost moet worden voltooid, is alles wat het bevordert de facto goed. Die logica kan de sociale normen die wij als vanzelfsprekend beschouwen, verdraaien, en zelfs zoiets fundamenteels als “moord is verkeerd” omdraaien in “moord op hen die het project in de weg staan is goed.”
Zulke demente logica houdt zelfs geen stand bij de geringste toetsing. Maar Eichmann schermde zich, net als degenen om hem heen, af van de realiteit van zijn daden met emotieloze abstracties. “Clichés, standaardzinnen, het vasthouden aan conventionele, gestandaardiseerde uitdrukkings- en gedragscodes hebben de sociaal erkende functie ons tegen de werkelijkheid te beschermen,” schreef Arendt in een essay met de titel “Denken”, dat 15 jaar na het Eichmann-boek in The New Yorker werd gepubliceerd. De gebeurtenissen en feiten van de wereld zouden altijd op onze “denkende aandacht” moeten drukken, schrijft ze, en ons dwingen ons gedrag en onze overtuigingen opnieuw te evalueren.
“Eichmann verschilde van de rest van ons,” concludeert ze, alleen in die zin dat er geen verband was tussen de werkelijkheid en zijn denkproces. In plaats daarvan volgde hij blindelings de verdraaide moraal die in zijn kringen conventioneel was geworden. En miljoenen stierven daardoor.
Dat brengt ons terug bij Facebook. Het heeft zijn eigen grote project – de menselijke wereld veranderen in één groot informatiesysteem. Dit is, het spreekt voor zich, lang niet zo verschrikkelijk als het project van het duizendjarige Reich. Maar het fundamentele probleem is hetzelfde: een onvermogen om de dingen te bekijken vanuit het gezichtspunt van de ander, een loskoppeling van de menselijke werkelijkheid en het grote project.
De neerwaartse boog van het historische project
Arendt helpt ons te zien hoe alle verschillende misstappen van Facebook met elkaar samenhangen. Hier is een voorbeeld dat, hoewel klein, het punt illustreert. Vorig jaar bracht Mark Zuckerberg een video uit waarin hij Spaces, Facebooks nieuwe virtual reality-platform, presenteerde. Daarin wordt hij voorgesteld door een glimmende, lachende, computergegenereerde versie van zichzelf met een groot hoofd.
Deze karikatuur van Zuck is eerst buiten te zien, op het dak van het hoofdkantoor van Facebook. Dan haalt hij een soort bol tevoorschijn. De bol, zegt hij, bevat een 360-video van Puerto Rico, genomen kort na de verwoesting van orkaan Maria. Deze orb wordt voor de camera geplaatst. Plotseling “teleporteert” Zuck, samen met de avatar van Rachel Franklin, hoofd van de sociale virtuele realiteit bij Facebook, in de scène. Deze twee figuren zijn nu te zien “rijdend in een vrachtwagen” door verwoeste buurten en “staand” in meters overstromend water.
Oh, ze vergaten te vermelden hoe cool deze technologie is, dus stoppen ze om te high-fiven.
“Het voelt alsof we echt hier in Puerto Rico zijn,” zegt digi-Zuck (onthoud dat dit alles in subpar CG is). Ze springen een paar minuten rond naar verschillende rampscènes. “Oké, dus jullie willen ergens anders heen teleporteren?” Nog een orb en ze worden weggevoerd, terug naar Californië.
Voor degenen onder ons buiten het grote project van Facebook, was deze video duidelijk een vreselijk idee. Nieuwszenders ridiculiseerden het als toon-doof en smakeloos. Toch is de video door de vele goedkeuringslagen van Facebook gekomen. Het feit dat mensen bij Facebook de video goedkeurden terwijl de problemen zo duidelijk waren voor externe kijkers is tekenend voor de mate waarin Facebook’s waardesysteem is afgeweken van dat van de rest van de samenleving – het resultaat van haar kortzichtige focus op het verbinden van iedereen op welke manier dan ook, gevolgen zijn vervloekt.
Met dat in gedachten, begint de rode draad door Facebook’s talrijke public-relations rampen duidelijk te worden. De voortdurende afwijzing van activisten uit Sri Lanka en Myanmar die smeekten iets te doen aan het aanzetten tot geweld. De weigering om materiaal te verwijderen waarin het Sandy Hook bloedbad een “hoax” wordt genoemd en waarin de ouders van vermoorde kinderen worden bedreigd. Het misleidende taalgebruik over privacy en dataverzameling. Facebook lijkt blind te zijn voor de mogelijkheid dat het kwaad kan worden aangedaan. In een recent interview van Zuckerberg met Recode’s Kara Swisher, noemt ze een ontmoeting met productmanagers voor Facebook Live. Ze leken “oprecht verbaasd”, zei ze, toen ze suggereerde dat het gebruikt zou kunnen worden om moord, pesterijen en zelfmoord uit te zenden. “Ze leken minder gericht op dat dan op de positiviteit van wat er zou kunnen gebeuren op het platform,” zegt ze.
Die worst-case scenario’s gebeurden, zoals de video van Antonio Perkins grafisch laat zien. Niet omdat Facebook wilde dat iemand gewond zou raken. Alles omdat het zich op een gegeven moment tegen de menselijke werkelijkheid heeft beschermd met computerprogrammeerjargon, clichés over vrije meningsuiting, en standaardzinnen die de “positiviteit” van een techno-utopie bevestigen die, indien gerealiseerd, het leuke neveneffect zou hebben van het genereren van bootladingen geld.
Facebook is ten prooi gevallen aan de fundamentele fout van Arendt.
Denk zelf
Zuckerberg zinspeelt in feite op deze lezing van het falen van zijn bedrijf in een 6000 woorden tellend manifest dat hij in februari schreef over de toekomstige ambities van Facebook. Ongeveer 4500 woorden verder geeft hij toe dat Facebook fouten heeft gemaakt en zegt hij dat hij het “vaak eens” is met critici. (Hij zegt niet over wat specifiek.) Maar, voegt hij eraan toe, “Deze fouten zijn bijna nooit omdat we ideologische standpunten in strijd met de gemeenschap, maar in plaats daarvan zijn operationele schaalproblemen.”
Het is waar dat Facebook zelden “ideologische standpunten in strijd met de gemeenschap.” Omdat Facebook banaal is, heeft het meestal geen ideologische standpunten over wat dan ook. Het social-media platform heeft lang geprobeerd zichzelf te positioneren als een bastion van neutraliteit, een platform voor andermans ideeën, een passief doorgeefluik. Toen Swisher Zuckerberg uitdaagde over het toestaan van Sandy Hook-ontkenners om hun boodschap te verspreiden, zei hij: “Kijk, hoe weerzinwekkend sommige van deze inhoud ook kan zijn, ik denk dat het neerkomt op dit principe om mensen een stem te geven.”
Maar een organisatie met zoveel invloed hoeft niet ideologisch tegen de samenleving te zijn om schade te veroorzaken. Ze hoeft alleen maar niet meer aan mensen te denken, zich comfortabel te voelen om religieus geweld, etnische discriminatie, haatdragende taal, eenzaamheid, leeftijdsdiscriminatie en live-streaming van de dood af te doen als “operationele schaalkwesties”. Om te denken aan zelfmoord als een “use case” voor Facebook Live.
Dezer dagen, kan het verleidelijk zijn om te betogen dat Facebook op de goede weg is. De missie van het bedrijf werd vorig jaar gewijzigd om het belang van “verbindingen” te verminderen. In plaats van “de wereld open en verbonden te maken”, is het doel nu “de wereld dichter bij elkaar te brengen”. In juli kondigde Facebook aan dat het zal beginnen met het verwijderen van berichten die oproepen tot fysiek geweld in sommige landen.
Dat is nog lang niet genoeg. De nieuwe missie doet nog steeds niet wat Arendt zegt dat ze moet doen. Het stelt Facebook, het platform, nog steeds boven de mensen die het gebruiken. De wereld dichter bij elkaar brengen kan betekenen dat je gebak verkoopt en bijbellezingen houdt; het kan ook betekenen dat je de KKK en skinheads verenigt. De missieverklaring zegt niets over de verschillen tussen die twee.
Facebook moet leren zelf na te denken. De eigen veiligheidsfunctionaris, Alex Stamos, zei het al in zijn afscheidsmemo, ook verkregen door BuzzFeed. “We moeten bereid zijn partij te kiezen als er duidelijke morele of humanitaire problemen zijn’, schrijft hij. Dat is wat Eichmann nooit heeft gedaan.
De oplossing is niet dat Facebook de moraalpolitie van het internet wordt, die beslist of elke individuele post, video en foto moet worden toegestaan. Maar het kan niet terugvallen op zijn standpunt dat het een neutraal platform is, even geschikt voor zowel liefde als haat. Arendt zei dat de werkelijkheid altijd de aandacht van onze gedachten opeist. Wij worden ons steeds bewust van nieuwe feiten over de wereld; deze moeten worden overwogen en opgenomen in ons wereldbeeld. Maar zij erkende dat het uitputtend zou zijn om voortdurend aan deze eis toe te geven. Het verschil met Eichmann was dat hij nooit toegaf, omdat zijn denken volledig gescheiden was van de werkelijkheid.
De oplossing is dus dat Facebook zijn denkwijze verandert. Tot nu toe zijn zelfs de positieve stappen van Facebook, zoals het verwijderen van berichten die aanzetten tot geweld, of het tijdelijk verbannen van de samenzweringstheoreticus Alex Jones, niet het resultaat van zelfonderzoek, maar van intense publieke druk en PR fall-out. Facebook doet alleen wat juist is als het daartoe wordt gedwongen. In plaats daarvan moet het bereid zijn om het doel van totale verbondenheid en groei op te offeren wanneer dit doel een menselijke prijs heeft; om een besluitvormingsproces te creëren dat Facebook-leiders verplicht om hun instinctieve technologische optimisme te toetsen aan de realiteit van het menselijk leven.
Zonder menselijke overwegingen zal Facebook doorgaan met ondoordachte, banale schade aan de wereld te brengen. De 2,5 miljard mensen die het gebruiken, als onderdeel van hun echte leven, zullen dat niet eeuwig pikken.