Nel giugno 2016, Antonio Perkins ha involontariamente trasmesso al mondo la propria morte. Era una giornata di sole a Chicago, e la stava condividendo su Facebook Live, una piattaforma per la distribuzione di video in tempo reale, rilasciata solo pochi mesi prima.
Il video è lungo. Presenta Perkins che fa cose estive banali. In piedi sul marciapiede. Si lamenta del caldo. Dopo circa sei minuti, improvvisamente, risuonano dei colpi di pistola. La telecamera si muove freneticamente, poi cade a terra. Più tardi quel giorno, Perkins è stato dichiarato morto.
Il video ha quasi un milione di visualizzazioni.
Il brutto
Il giorno dopo, una nota chiamata “Il brutto” è stata fatta circolare internamente a Facebook. Il suo autore, Andrew Bosworth, uno dei vice presidenti e decisori centrali dell’azienda.
“Parliamo spesso del bene e del male del nostro lavoro”, inizia il memo, ottenuto da BuzzFeed a marzo. “Voglio parlare del brutto”. Continua:
Colleghiamo le persone…Forse costa una vita esponendo qualcuno ai bulli. Forse qualcuno muore in un attacco terroristico coordinato sui nostri strumenti. E comunque colleghiamo le persone. La brutta verità è che crediamo così profondamente nel connettere le persone che tutto ciò che ci permette di connettere più persone più spesso è di fatto buono.
Il memo non menziona Perkins. È possibile che Bosworth non fosse a conoscenza dell’incidente. Dopo tutto, le tragedie in tempo reale non sono così rare su Facebook Live.
Ma la morte di Perkins in live-streaming è un primo esempio di “Il Brutto”. Anche se la sua morte è tragica, il video non viola gli astrusi standard comunitari dell’azienda, in quanto non “glorifica la violenza” o “celebra la sofferenza o l’umiliazione degli altri”. E lasciarlo su significa che più persone si collegheranno a Perkins, e a Facebook, quindi il video rimane. Ha un milione di visualizzazioni, dopo tutto.
La decisione è una delle tante azioni recenti di Facebook che possono aver lasciato un cattivo sapore in bocca. L’azienda ha inconsapevolmente permesso alla campagna presidenziale di Donald Trump di raccogliere dati personali su milioni di americani. Non ha notato i tentativi della Russia di influenzare le elezioni del 2016; ha facilitato la violenza etnica e religiosa in diversi paesi; e ha permesso agli inserzionisti di rivolgersi a nobili categorie di consumatori come gli “odiatori di ebrei”. Per non parlare del fatto che le fake news, le teorie di cospirazione e le bugie palesi abbondano sulla piattaforma.
Facebook non voleva che accadesse nulla di tutto questo. Voleva solo collegare le persone. Ma c’è un filo che va dalla morte di Perkins alla violenza religiosa in Myanmar e i tentativi dell’azienda di combattere le fake news. Facebook è davvero il male. Non di proposito. Nel modo più banale possibile.
Sotto tutti i casini di Facebook c’è una maldestra dimenticanza degli esseri umani reali. L’attenzione singolare dell’azienda sul “connettere le persone” le ha permesso di conquistare il mondo, rendendo possibile la creazione di una vasta rete di relazioni umane, una fonte di intuizioni e di occhi che fa sbavare inserzionisti e investitori.
Ma l’imperativo di “connettere le persone” manca dell’ingrediente essenziale per essere un buon cittadino: Trattare i singoli esseri umani come sacrosanti. Per Facebook, il mondo non è fatto di individui, ma di connessioni tra loro. I miliardi di account di Facebook non appartengono a “persone” ma a “utenti”, collezioni di punti dati collegati ad altre collezioni di punti dati su un vasto Social Network, per essere presi di mira e monetizzati da programmi informatici.
Ci sono certe cose che non si fanno in buona coscienza agli umani. Ai dati, si può fare quello che si vuole.
La vita come database
Dopo la pubblicazione di “The Ugly”, Bosworth ha preso le distanze dall’argomento del memo. Ora dice che voleva semplicemente “far emergere le questioni” e che lui, piuttosto incredibilmente, “non era d’accordo nemmeno quando l’ha scritto”. Mark Zuckerberg ha aggiunto che anche lui era fortemente in disaccordo con il memo, dicendo: “Non abbiamo mai creduto che il fine giustifichi i mezzi”
Tempre più volte, però, le scelte di Facebook hanno rivelato che connettere le persone è considerato un bene di fatto in quasi tutti i casi. È per questo che Zuckerberg, in una recente intervista con Recode, ha difeso la decisione di permettere i post dei negazionisti sia della sparatoria di Sandy Hook che dell’Olocausto, dicendo che semplicemente “sbagliano le cose”.
Con Facebook, “la vita è trasformata in un database”, scrive il tecnologo Jaron Lanier nel suo libro del 2010 You Are Not a Gadget. La cultura della Silicon Valley è arrivata ad accettare come certo, scrive Lanier, che “tutta la realtà, compresi gli esseri umani, è un grande sistema informativo”. Questa certezza, dice, dà alle persone più potenti del mondo tecnologico “un nuovo tipo di destino manifesto”. Dà loro “una missione da compiere.”
Accettare questa missione è conveniente per Facebook. Rende la scalata più veloce possibile un imperativo morale. In questa visione, più grande è Facebook, meglio è l’azienda per il mondo. Questo è anche il modo per fare più soldi.
Il problema, dice Lanier, è che non c’è niente di speciale sugli esseri umani in questo sistema informativo. Ogni punto di dati è trattato allo stesso modo, indipendentemente da come gli umani lo sperimentano. “Gli odiatori di ebrei” sono una categoria pubblicitaria tanto quanto “le mamme che fanno jogging”. Sono tutti dati. Se il gruppo A ha una presenza maggiore su Facebook rispetto al gruppo B, così sia, anche se il gruppo A sta cercando di sminuire o organizzare la violenza contro i B. Naturalmente, la realtà è che gli esseri umani sono tutti diversi, e non possono essere ridotti a dati.
Prova a dirlo al gruppo di ragazzi bianchi della Ivy League che ha iniziato Facebook come un sito web hot-or-not e ha inventato un fusto di riconoscimento facciale.
Cosa significa pensare
L’errore di Facebook non è nuovo. In generale, le cose si mettono male quando organizzazioni massicce e potenti non riescono a considerare l’umanità degli altri. Ora parleremo dei nazisti.
La migliore analisi del fallimento intellettuale di Facebook viene dalla teorica politica Hannah Arendt nel suo libro Eichmann in Jerusalem. Il libro è un resoconto del processo di Adolf Eichmann del 1961. Un burocrate nazista di medio livello, Eichmann era il principale responsabile della logistica del trasporto forzato degli ebrei nei campi di concentramento durante la seconda guerra mondiale.
Eichmann fu catturato in Argentina e portato davanti a un tribunale israeliano per spiegare i suoi crimini. Tutti i presenti si aspettavano che fosse un pazzo sadico, perversamente ossessionato dalla distruzione del popolo ebraico.
Invece, si rivelò un buffone e un arrivista. Sosteneva di aver dimenticato i dettagli dei principali eventi politici, mentre ricordava chiaramente quale dei suoi colleghi aveva ottenuto una promozione che lui desiderava. Secondo la Arendt, uno psichiatra del tribunale israeliano che esaminò Eichmann lo dichiarò “un uomo completamente normale, più normale, in ogni caso, di quanto lo sia io dopo averlo esaminato”
La domanda che ossessionava la Arendt era come un uomo così “normale” avesse giocato un ruolo importante nell’omicidio di massa. Eichmann mandò consapevolmente migliaia di ebrei a morte certa.
Arendt conclude che non fu né il sadismo né l’odio a spingere Eichmann a commettere questi crimini storici. Un difetto “decisivo” del suo carattere, scrive la Arendt, era la sua “incapacità di guardare qualsiasi cosa dal punto di vista dell’altro”.
Come è stato possibile che Eichmann, e centinaia di altri nazisti, non abbiano avuto una comprensione di base della sacralità della vita umana? La risposta sta nella fede di Eichmann in un grande progetto storico per stabilire una “utopia” razzialmente pura. Questo progetto trascendeva le vite umane, rendendole secondarie. Una vita, o un milione di vite, erano piccoli prezzi da pagare per la promessa di realizzare un “Reich millenario”
L’incapacità di Eichmann di pensare alla sofferenza degli altri derivava dalla sua interiorizzazione dell’importanza suprema di un grande progetto, conclude Arendt. Poiché il progetto deve essere completato a qualunque costo, tutto ciò che lo promuove è de facto buono. Questa logica può distorcere le norme sociali che diamo per scontate, anche invertendo qualcosa di fondamentale come “l’omicidio è sbagliato” in “l’omicidio di coloro che ostacolano il progetto è giusto”
Questa logica demenziale non regge al minimo esame. Ma Eichmann, come quelli che lo circondavano, si schermò dalla realtà delle sue azioni usando astrazioni senza emozioni. “I cliché, le frasi di repertorio, l’adesione a codici convenzionali e standardizzati di espressione e condotta hanno la funzione socialmente riconosciuta di proteggerci dalla realtà”, scrisse la Arendt in un saggio intitolato “Thinking”, pubblicato sul New Yorker 15 anni dopo il libro di Eichmann. Gli eventi e i fatti del mondo dovrebbero sempre premere sulla nostra “attenzione pensante”, scrive, costringendoci a rivalutare i nostri comportamenti e le nostre credenze.
“Eichmann era diverso dal resto di noi”, conclude, solo in quanto non c’era alcuna connessione tra la realtà e il suo processo di pensiero. Invece, seguiva ciecamente la morale contorta che era diventata convenzionale nei suoi circoli. E milioni di persone sono morte per questo.
Questo ci riporta a Facebook. Ha il suo grande progetto: trasformare il mondo umano in un grande sistema d’informazione. Questo, va da sé, non è così terribile come il progetto del Reich millenario. Ma il problema fondamentale è lo stesso: l’incapacità di guardare le cose dal punto di vista dell’altro, una disconnessione tra la realtà umana e il grande progetto.
L’arco discendente del progetto storico
Arendt ci aiuta a vedere come tutti i vari passi falsi di Facebook siano collegati. Ecco un esempio che, anche se minore, illustra il punto.
L’anno scorso, Mark Zuckerberg ha rilasciato un video che mostrava Spaces, la nuova piattaforma di realtà virtuale di Facebook. In esso, egli è rappresentato da una versione lucida, con la testa grossa, sorridente e generata dal computer di se stesso.
Questa caricatura di Zuck è vista prima all’esterno, sul tetto del quartier generale di Facebook. Poi tira fuori una specie di sfera. La sfera, dice, contiene un video a 360 gradi di Porto Rico preso poco dopo la devastazione dell’uragano Maria. Questa sfera viene posta di fronte alla telecamera. Improvvisamente, Zuck – insieme all’avatar di Rachel Franklin, capo della realtà virtuale sociale di Facebook – si “teletrasporta” nella scena. Queste due figure sono ora viste “cavalcare un camion” attraverso quartieri in rovina e “in piedi” in metri di acqua alluvionale.
Oh, hanno dimenticato di menzionare quanto sia cool questa tecnologia, così si fermano per darsi il cinque.
“Ci si sente come se fossimo davvero qui a Porto Rico”, dice digi-Zuck (ricordate che tutto questo è in CG subpar). Saltano intorno a varie scene di disastri per un paio di minuti. “Va bene, allora vuoi andare a teletrasportarti da qualche altra parte?”. Un’altra sfera e vengono portati via, di nuovo in California.
A quelli di noi fuori dal grande progetto di Facebook, questo video era ovviamente un’idea terribile. I media l’hanno ridicolizzato come privo di tono e di gusto. Anche così, il video si è fatto strada attraverso i molti livelli di approvazione di Facebook. Il fatto che la gente di Facebook abbia dato il pollice in su quando i problemi del video erano così chiari agli spettatori esterni è indicativo della misura in cui il sistema di valori di Facebook si è discostato da quello del resto della società – il risultato della sua attenzione miope sul collegare tutti, per quanto possibile, al diavolo le conseguenze.
Con questo in mente, il filo che corre attraverso i numerosi disastri di Facebook nelle relazioni pubbliche inizia a diventare chiaro. Il suo continuo rifiuto degli attivisti dello Sri Lanka e del Myanmar che lo implorano di fare qualcosa contro gli incitamenti alla violenza. Il suo rifiuto di rimuovere materiale che chiama il massacro di Sandy Hook una “bufala” e minaccia i genitori dei bambini uccisi. Il suo linguaggio fuorviante sulla privacy e le pratiche di raccolta dati.
Facebook sembra essere cieco alla possibilità che possa essere usato per il male. Nella recente intervista di Zuckerberg con Kara Swisher di Recode, parla di un incontro con i product manager di Facebook Live. Sembravano “sinceramente sorpresi”, ha detto, quando ha suggerito che potrebbe essere usato per trasmettere omicidi, bullismo e suicidio. “Sembravano meno orientati verso questo che verso la positività di ciò che potrebbe accadere sulla piattaforma”, dice.
Questi scenari peggiori sono accaduti, come il video di Antonio Perkins dimostra graficamente. Non perché Facebook voleva che qualcuno si facesse male. Tutto perché, ad un certo punto, si è protetto dalla realtà umana con il gergo della programmazione informatica, i cliché sulla libertà di parola, e le frasi di repertorio che affermano la “positività” di una tecno-utopia che, se realizzata, avrebbe il piacevole effetto collaterale di generare vagonate di denaro.
Facebook è caduto in preda all’errore fondamentale di Arendt.
Pensa per te
Zuckerberg infatti accenna a questa lettura dei fallimenti della sua azienda in un manifesto di 6.000 parole che ha scritto lo scorso febbraio sulle ambizioni future di Facebook. In circa 4.500 parole, ammette che Facebook ha fatto degli errori, dicendo che “spesso è d’accordo” con i critici. (Ma, aggiunge, “Questi errori non sono quasi mai perché abbiamo posizioni ideologiche in contrasto con la comunità, ma sono invece problemi di scala operativa.”
È vero che Facebook raramente ha “posizioni ideologiche in contrasto con la comunità”. Dal momento che Facebook è banale, tipicamente manca di posizioni ideologiche su qualsiasi cosa. La piattaforma di social media ha a lungo cercato di posizionarsi come un bastione di neutralità, una piattaforma per le idee degli altri, un condotto passivo. Quando Swisher ha sfidato Zuckerberg a permettere ai negazionisti di Sandy Hook di diffondere il loro messaggio, ha detto: “Guarda, per quanto abominevoli possano essere alcuni di questi contenuti, penso che si tratti del principio di dare voce alle persone”. Ha solo bisogno di smettere di pensare agli esseri umani, di sentirsi a proprio agio nel liquidare la violenza religiosa, la discriminazione etnica, l’incitamento all’odio, la solitudine, la discriminazione per età e la morte in live-streaming come “problemi di scala operativa”. Pensare al suicidio come un “caso d’uso” per Facebook Live.
In questi giorni, si può essere tentati di sostenere che Facebook è sulla strada giusta. La dichiarazione di missione della società è stata cambiata l’anno scorso per ridurre l’importanza delle “connessioni”. Invece di “rendere il mondo aperto e connesso”, il suo obiettivo è ora quello di “avvicinare il mondo”. A luglio, Facebook ha annunciato che inizierà a togliere i post che incitano alla violenza fisica in alcuni paesi.
Questo non è abbastanza. La nuova missione non riesce ancora a fare quello che la Arendt dice che deve fare. Mette ancora Facebook, la piattaforma, al di sopra degli esseri umani che la usano. Avvicinare il mondo può significare facilitare le vendite di torte e le letture della Bibbia; può anche significare unire il KKK e gli skinheads. La dichiarazione di missione non ha nulla da dire sulle differenze tra le due cose.
Facebook deve imparare a pensare da solo. Il suo responsabile della sicurezza, Alex Stamos, lo ha detto nella sua nota di addio, acquisita anche da BuzzFeed. “Dobbiamo essere disposti a schierarci quando ci sono chiare questioni morali o umanitarie”, scrive. Questo è ciò che Eichmann non ha mai fatto.
La soluzione non è che Facebook diventi la polizia morale di internet, decidendo se ogni singolo post, video e foto debba essere permesso. Ma non può ricadere sulla sua linea di essere una piattaforma neutrale, ugualmente adatta sia all’amore che all’odio. Arendt diceva che la realtà richiede sempre l’attenzione dei nostri pensieri. Diventiamo sempre consapevoli di nuovi fatti sul mondo; questi devono essere considerati e incorporati nella nostra visione del mondo. Ma riconosceva che cedere costantemente a questa richiesta sarebbe stato estenuante. La differenza con Eichmann era che lui non ha mai ceduto, perché il suo pensiero era completamente separato dalla realtà.
La soluzione, quindi, è che Facebook cambi la sua mentalità. Fino ad ora, anche i passi positivi di Facebook – togliere i post che incitano alla violenza, o bandire temporaneamente il teorico della cospirazione Alex Jones – non sono il risultato di un esame di coscienza, ma di un’intensa pressione pubblica e delle ricadute delle PR. Facebook fa la cosa giusta solo quando è costretto. Invece, deve essere disposto a sacrificare l’obiettivo della connessione e della crescita totale quando questo obiettivo ha un costo umano; per creare un processo decisionale che richiede ai leader di Facebook di controllare il loro istintivo ottimismo tecnologico contro le realtà della vita umana.
Senza considerazioni umane, Facebook continuerà a portare danni banali e sconsiderati al mondo. I 2,5 miliardi di persone che lo usano, come parte della loro vita reale, non lo sopporteranno per sempre.