Im Juni 2016 übertrug Antonio Perkins ungewollt seinen eigenen Tod in die Welt. Es war ein sonniger Tag in Chicago, und er teilte ihn auf Facebook Live, einer Plattform zur Verbreitung von Videos in Echtzeit, die erst wenige Monate zuvor eingeführt worden war.
Das Video ist lang. Es zeigt Perkins bei alltäglichen Dingen im Sommer. Er steht auf dem Bürgersteig herum. Er beschwert sich über die Hitze. Nach etwa sechs Minuten ertönen plötzlich Schüsse. Die Kamera bewegt sich hektisch, dann fällt sie zu Boden. Später am Tag wurde Perkins für tot erklärt.
Das Video wurde fast eine Million Mal angesehen.
Das Hässliche
Am nächsten Tag wurde ein Memo mit dem Titel „Das Hässliche“ intern bei Facebook verbreitet. Sein Verfasser, Andrew Bosworth, ist einer der Vizepräsidenten und zentralen Entscheidungsträger des Unternehmens.
„Wir sprechen oft über das Gute und das Schlechte unserer Arbeit“, beginnt das Memo, das BuzzFeed im März erhielt. „Ich möchte über das Hässliche sprechen.“ Weiter heißt es:
Wir verbinden Menschen…Vielleicht kostet es ein Leben, wenn wir jemanden Tyrannen aussetzen. Vielleicht stirbt jemand bei einem Terroranschlag, der mit unseren Werkzeugen koordiniert wurde. Und trotzdem bringen wir Menschen zusammen. Die hässliche Wahrheit ist, dass wir so sehr daran glauben, Menschen zu verbinden, dass alles, was uns erlaubt, mehr Menschen öfter zu verbinden, de facto gut ist.
In dem Memo wird Perkins nicht erwähnt. Es ist möglich, dass Bosworth nichts von dem Vorfall wusste. Schließlich sind Tragödien in Echtzeit auf Facebook Live gar nicht so selten.
Aber der live gestreamte Tod von Perkins ist ein Paradebeispiel für „The Ugly“. Obwohl sein Tod tragisch ist, verstößt das Video nicht gegen die abstrusen Gemeinschaftsstandards des Unternehmens, da es weder „Gewalt verherrlicht“ noch „das Leiden oder die Demütigung anderer feiert.“ Und wenn man es anzeigt, werden sich mehr Menschen mit Perkins und Facebook verbinden, so dass das Video bestehen bleibt. Es hat immerhin eine Million Aufrufe.
Die Entscheidung ist eine von vielen, die Facebook in letzter Zeit getroffen hat und die einen schlechten Beigeschmack hinterlassen haben könnte. Das Unternehmen hat der Präsidentschaftskampagne von Donald Trump unwissentlich erlaubt, persönliche Daten von Millionen von Amerikanern zu sammeln. Es hat die Versuche Russlands, die Wahlen 2016 zu beeinflussen, nicht bemerkt, ethnische und religiöse Gewalt in mehreren Ländern unterstützt und Werbekunden erlaubt, so edle Kategorien von Verbrauchern wie „Judenhasser“ anzusprechen. Ganz zu schweigen davon, dass Fake News, Verschwörungstheorien und eklatante Lügen auf der Plattform weit verbreitet sind.
Facebook hat das alles nicht gewollt. Es wollte nur Menschen miteinander verbinden. Aber es gibt einen roten Faden, der sich von Perkins‘ Tod über religiöse Gewalt in Myanmar bis hin zu den halbherzigen Versuchen des Unternehmens, Fake News zu bekämpfen, zieht. Facebook ist wirklich böse. Nicht absichtlich. Auf banale Art und Weise.
Hinter all den Fehlern von Facebook steckt eine stümperhafte Vergesslichkeit gegenüber echten Menschen. Der einzigartige Fokus des Unternehmens auf das „Verbinden von Menschen“ hat es ihm ermöglicht, die Welt zu erobern und ein riesiges Netzwerk menschlicher Beziehungen zu schaffen, eine Quelle von Einsichten und Blicken, die Werbetreibende und Investoren sabbern lässt.
Aber dem Gebot, „Menschen zu verbinden“, fehlt die eine wesentliche Zutat, um ein guter Bürger zu sein: Den einzelnen Menschen als unantastbar zu behandeln. Für Facebook besteht die Welt nicht aus Individuen, sondern aus Verbindungen zwischen ihnen. Die Milliarden von Facebook-Konten gehören nicht zu „Menschen“, sondern zu „Nutzern“, Ansammlungen von Datenpunkten, die mit anderen Ansammlungen von Datenpunkten in einem riesigen sozialen Netzwerk verbunden sind, um von Computerprogrammen gezielt angesprochen und zu Geld gemacht zu werden.
Es gibt bestimmte Dinge, die man Menschen nicht mit gutem Gewissen antun kann. Mit Daten kann man machen, was man will.
Das Leben als Datenbank
Seit der Veröffentlichung von „The Ugly“ hat sich Bosworth von der Argumentation in dem Memo distanziert. Er sagt jetzt, dass er lediglich „Probleme aufdecken“ wollte und dass er, was ziemlich unglaublich ist, „nicht damit einverstanden war, als er es schrieb.“ Mark Zuckerberg fügte hinzu, dass auch er mit dem Memo nicht einverstanden sei und sagte: „Wir haben nie geglaubt, dass der Zweck die Mittel heiligt.“
Die Entscheidungen von Facebook haben jedoch immer wieder gezeigt, dass die Verbindung von Menschen in fast allen Fällen de facto als ein Gut angesehen wird. Deshalb verteidigte Zuckerberg kürzlich in einem Interview mit Recode die Entscheidung, Beiträge von Leugnern der Sandy-Hook-Schießerei und des Holocausts zuzulassen, indem er sagte, dass diese einfach „die Dinge falsch verstehen“
Mit Facebook wird „das Leben in eine Datenbank verwandelt“, schreibt der Technologe Jaron Lanier in seinem Buch You Are Not a Gadget von 2010. Die Silicon-Valley-Kultur hat es als sicher akzeptiert, schreibt Lanier, dass „die gesamte Realität, einschließlich der Menschen, ein großes Informationssystem ist.“ Diese Gewissheit, so Lanier, verschafft den mächtigsten Menschen der Tech-Welt eine neue Art von manifestem Schicksal“. Es gibt ihnen „eine Mission zu erfüllen“
Diese Mission zu akzeptieren, ist für Facebook sehr praktisch. Sie macht eine möglichst schnelle Skalierung zu einem moralischen Gebot. Je größer Facebook ist, desto besser ist das Unternehmen für die Welt. Auf diese Weise lässt sich auch das meiste Geld verdienen.
Das Problem, so Lanier, ist, dass es in diesem Informationssystem nichts Besonderes an Menschen gibt. Jeder Datenpunkt wird gleich behandelt, unabhängig davon, wie der Mensch ihn erlebt. „Judenhasser“ ist genauso eine Anzeigenkategorie wie „Mütter, die joggen“. Es sind alles Daten. Wenn Gruppe A eine größere Präsenz auf Facebook hat als Gruppe B, dann ist das eben so, auch wenn Gruppe A versucht, die Gruppe B zu verunglimpfen oder Gewalt gegen sie zu organisieren. Die Realität ist natürlich, dass die Menschen alle unterschiedlich sind und nicht auf Daten reduziert werden können.
Versuchen Sie, das der Gruppe weißer Ivy-League-Jungs zu sagen, die Facebook als eine „Hot-or-not“-Website gegründet und ein Gesichtserkennungs-Fass erfunden haben.
Was es bedeutet zu denken
Der Fehler von Facebook ist nicht neu. Im Allgemeinen werden die Dinge hässlich, wenn riesige, mächtige Organisationen es versäumen, die Menschlichkeit der anderen zu berücksichtigen. Wir werden jetzt über Nazis sprechen.
Die beste Analyse des intellektuellen Versagens von Facebook stammt von der politischen Theoretikerin Hannah Arendt in ihrem Buch Eichmann in Jerusalem. Das Buch ist ein Bericht über den Prozess von 1961 gegen Adolf Eichmann. Eichmann war ein mittlerer Nazi-Bürokrat, der während des Zweiten Weltkriegs hauptsächlich für die Logistik des gewaltsamen Transports von Juden in Konzentrationslager verantwortlich war.
Eichmann wurde in Argentinien gefangen genommen und vor ein israelisches Gericht gebracht, um seine Verbrechen zu erklären. Alle Anwesenden erwarteten, dass er ein sadistischer Wahnsinniger war, der perverserweise von der Vernichtung des jüdischen Volkes besessen war.
Stattdessen entpuppte er sich als Possenreißer und Karrierist. Er behauptete, die Einzelheiten wichtiger politischer Ereignisse vergessen zu haben, während er sich genau daran erinnerte, wer von seinen Kollegen eine Beförderung erhielt, die er begehrte. Laut Arendt erklärte ein israelischer Gerichtspsychiater, der Eichmann untersuchte, dass er „ein völlig normaler Mann sei, normaler jedenfalls, als ich es bin, nachdem ich ihn untersucht habe“
Die Frage, die Arendt quälte, war, wie ein so „normaler“ Mann eine wichtige Rolle beim Massenmord spielen konnte. Eichmann schickte wissentlich Tausende von Juden in den sicheren Tod.
Arendt kommt zu dem Schluss, dass es weder Sadismus noch Hass waren, die Eichmann zu diesen historischen Verbrechen trieben. Es war das Unvermögen, andere Menschen überhaupt als Menschen zu betrachten.
Ein „entscheidender“ Makel in seinem Charakter, schreibt Arendt, war seine „Unfähigkeit, irgendetwas jemals vom Standpunkt des anderen aus zu betrachten“
Wie kam es, dass Eichmann und Hunderte anderer Nazis kein grundlegendes Verständnis für die Unantastbarkeit des menschlichen Lebens besaßen? Die Antwort liegt in Eichmanns Glauben an ein großes, historisches Projekt zur Errichtung einer rassisch reinen „Utopie“. Dieses Projekt ging über das menschliche Leben hinaus und machte es zweitrangig. Ein Leben oder eine Million Leben waren ein geringer Preis für das Versprechen, ein „Tausendjähriges Reich“ zu schaffen.
Eichmanns Unfähigkeit, an das Leiden anderer zu denken, resultierte aus seiner Verinnerlichung der überragenden Bedeutung eines großen Projekts, schlussfolgert Arendt. Weil das Projekt um jeden Preis vollendet werden muss, ist alles, was es fördert, de facto gut. Diese Logik kann die sozialen Normen verzerren, die wir für selbstverständlich halten, und sogar etwas so Grundsätzliches wie „Mord ist falsch“ in „Mord an denen, die dem Projekt im Wege stehen, ist richtig“ umkehren.
Solche wahnwitzige Logik hält nicht einmal der kleinsten Überprüfung stand. Aber Eichmann schirmte sich, wie seine Mitmenschen, durch emotionslose Abstraktionen von der Realität seines Handelns ab. „Klischees, Standardphrasen, das Festhalten an konventionellen, standardisierten Ausdrucks- und Verhaltenskodizes haben die gesellschaftlich anerkannte Funktion, uns vor der Realität zu schützen“, schrieb Arendt in einem Essay mit dem Titel „Thinking“, der 15 Jahre nach dem Eichmann-Buch in The New Yorker veröffentlicht wurde. Die Ereignisse und Tatsachen der Welt sollten immer auf unsere „denkende Aufmerksamkeit“ drängen, schreibt sie, und uns zwingen, unser Verhalten und unsere Überzeugungen neu zu bewerten.
„Eichmann unterschied sich vom Rest von uns“, schlussfolgert sie, nur dadurch, dass es keine Verbindung zwischen der Realität und seinem Denkprozess gab. Stattdessen folgte er blindlings der verdrehten Moral, die in seinen Kreisen üblich geworden war. Und Millionen starben deswegen.
Damit sind wir wieder bei Facebook. Es hat sein eigenes großes Projekt – die menschliche Welt in ein großes Informationssystem zu verwandeln. Das ist natürlich bei weitem nicht so schrecklich wie das Projekt des tausendjährigen Reiches. Aber das Grundproblem ist dasselbe: die Unfähigkeit, die Dinge aus der Sicht des anderen zu betrachten, die Trennung zwischen der menschlichen Realität und dem großen Projekt.
Der abwärts gerichtete Bogen des historischen Projekts
Arendt hilft uns zu sehen, wie all die verschiedenen Fehltritte von Facebook zusammenhängen. Hier ein Beispiel, das zwar unbedeutend ist, aber den Punkt veranschaulicht.
Im vergangenen Jahr veröffentlichte Mark Zuckerberg ein Video, in dem er Spaces vorstellte, die neue Virtual-Reality-Plattform von Facebook. Darin wird er von einer glänzenden, großköpfigen, lächelnden, computergenerierten Version seiner selbst dargestellt.
Diese Zuck-Karikatur ist zunächst draußen auf dem Dach der Facebook-Zentrale zu sehen. Dann holt er eine Art Kugel heraus. Die Kugel, so sagt er, enthält ein 360°-Video von Puerto Rico, das kurz nach den Verwüstungen des Hurrikans Maria aufgenommen wurde. Diese Kugel wird vor die Kamera gehalten. Plötzlich „teleportiert“ sich Zuck zusammen mit dem Avatar von Rachel Franklin, Leiterin der Abteilung für soziale virtuelle Realität bei Facebook, in die Szene. Die beiden Figuren „fahren“ nun mit einem Lastwagen durch zerstörte Stadtviertel und „stehen“ in meterhohen Fluten.
Oh, sie haben vergessen zu erwähnen, wie cool diese Technologie ist, also halten sie an, um sich abzufeuern.
„Es fühlt sich an, als wären wir wirklich hier in Puerto Rico“, sagt Digi-Zuck (man bedenke, dass das alles in minderwertiger CG ist). Sie springen ein paar Minuten lang zu verschiedenen Katastrophenszenen hin und her. „Also gut, willst du dich woanders hin teleportieren?“ Noch eine Kugel, und sie werden zurück nach Kalifornien teleportiert.
Für diejenigen unter uns, die nicht am großen Projekt von Facebook beteiligt sind, war dieses Video offensichtlich eine schreckliche Idee. In den Medien wurde es als unpassend und geschmacklos verspottet. Trotzdem hat das Video die vielen Genehmigungsschichten von Facebook durchlaufen. Die Tatsache, dass Facebook-Mitarbeiter das Video genehmigten, obwohl die Probleme des Videos für Außenstehende so offensichtlich waren, zeigt, wie sehr sich das Wertesystem von Facebook von dem der übrigen Gesellschaft entfernt hat – das Ergebnis seiner kurzsichtigen Konzentration darauf, jeden so weit wie möglich zu vernetzen, ohne Rücksicht auf die Konsequenzen.
Damit wird der rote Faden deutlich, der sich durch die zahlreichen Katastrophen in der Öffentlichkeitsarbeit von Facebook zieht. Die fortgesetzte Ablehnung von Aktivisten aus Sri Lanka und Myanmar, die das Unternehmen aufforderten, etwas gegen Gewaltaufrufe zu unternehmen. Die Weigerung, Material zu entfernen, das das Sandy-Hook-Massaker als „Schwindel“ bezeichnet und die Eltern der ermordeten Kinder bedroht. Seine irreführenden Äußerungen zum Datenschutz und zur Datenerfassung.
Facebook scheint blind für die Möglichkeit zu sein, dass es zum Schlechten benutzt werden könnte. Im jüngsten Interview von Zuckerberg mit Kara Swisher von Recode erwähnt sie ein Treffen mit Produktmanagern für Facebook Live. Sie schienen „wirklich überrascht“ zu sein, sagte sie, als sie vorschlug, dass es für die Übertragung von Mord, Mobbing und Selbstmord genutzt werden könnte. „Sie schienen weniger darauf bedacht zu sein als auf die positiven Aspekte dessen, was auf der Plattform passieren könnte“, sagt sie.
Diese Worst-Case-Szenarien sind tatsächlich eingetreten, wie das Video von Antonio Perkins anschaulich demonstriert. Nicht, weil Facebook wollte, dass jemand verletzt wird. Sondern weil es sich irgendwann mit Computerprogrammier-Jargon, Klischees über die Meinungsfreiheit und Phrasen über die „Positivität“ einer Techno-Utopie vor der menschlichen Realität geschützt hat, die, wenn sie verwirklicht würde, den netten Nebeneffekt hätte, dass sie Unmengen an Geld einbringen würde.
Facebook ist dem Arendt’schen Grundirrtum zum Opfer gefallen.
Denken Sie selbst
Zuckerberg deutet diese Lesart des Scheiterns seines Unternehmens in einem 6.000 Wörter umfassenden Manifest an, das er im Februar letzten Jahres über die zukünftigen Ambitionen von Facebook geschrieben hat. Nach etwa 4.500 Wörtern gibt er zu, dass Facebook Fehler gemacht hat und sagt, dass er Kritikern „oft zustimmt“. (Aber er fügt hinzu: „Diese Fehler sind fast nie darauf zurückzuführen, dass wir ideologische Positionen vertreten, die im Widerspruch zur Gemeinschaft stehen, sondern auf operative Skalierungsprobleme.“
Es stimmt, dass Facebook selten „ideologische Positionen vertritt, die im Widerspruch zur Gemeinschaft stehen“. Da Facebook banal ist, hat es in der Regel keine ideologischen Positionen zu irgendetwas. Die Social-Media-Plattform hat lange versucht, sich als eine Bastion der Neutralität zu positionieren, als Plattform für die Ideen anderer, als passiver Kanal. Als Swisher Zuckerberg darauf ansprach, dass er den Sandy-Hook-Leugnern erlaube, ihre Botschaft zu verbreiten, sagte er: „So abscheulich einige dieser Inhalte auch sein mögen, ich glaube, es geht um das Prinzip, Menschen eine Stimme zu geben.“
Aber eine Organisation mit so viel Einfluss muss nicht ideologisch gegen die Gesellschaft eingestellt sein, um Schaden anzurichten. Sie muss nur aufhören, über Menschen nachzudenken, um religiöse Gewalt, ethnische Diskriminierung, Hassreden, Einsamkeit, Altersdiskriminierung und live gestreamten Tod als „betriebliche Skalierungsprobleme“ abzutun. Selbstmord als „Anwendungsfall“ für Facebook Live zu betrachten.
In diesen Tagen mag es verlockend sein, zu argumentieren, dass Facebook auf dem richtigen Weg ist. Das Leitbild des Unternehmens wurde im vergangenen Jahr geändert, um die Bedeutung von „Verbindungen“ zu verringern. Statt „die Welt offen und vernetzt zu machen“, lautet das Ziel nun „die Welt näher zusammenzubringen“. Im Juli kündigte Facebook an, dass es damit beginnen wird, Beiträge zu löschen, die in einigen Ländern zu physischer Gewalt aufrufen.
Das ist nicht annähernd genug. Die neue Mission tut immer noch nicht das, was sie laut Arendt tun sollte. Sie stellt die Plattform Facebook immer noch über die Menschen, die sie nutzen. Die Welt näher zusammenzubringen kann bedeuten, Kuchenverkäufe und Bibellesen zu ermöglichen; es kann auch bedeuten, den KKK und Skinheads zu vereinen. Das Leitbild sagt nichts über die Unterschiede zwischen beiden aus.
Facebook muss lernen, selbst zu denken. Sein eigener Sicherheitsbeauftragter, Alex Stamos, sagte dies in seinem Abschiedsmemo, das ebenfalls von BuzzFeed erworben wurde. „Wir müssen bereit sein, Partei zu ergreifen, wenn es klare moralische oder humanitäre Fragen gibt“, schreibt er. Das hat Eichmann nie getan.
Die Lösung besteht nicht darin, dass Facebook zur Moralpolizei des Internets wird und entscheidet, ob jeder einzelne Beitrag, jedes einzelne Video und jedes einzelne Foto zugelassen werden soll. Aber es kann nicht auf seine Linie zurückfallen, eine neutrale Plattform zu sein, die für Liebe und Hass gleichermaßen geeignet ist. Arendt sagte, dass die Realität immer die Aufmerksamkeit unseres Denkens fordert. Wir erfahren immer neue Fakten über die Welt, die wir berücksichtigen und in unser Weltbild einbeziehen müssen. Aber sie räumte ein, dass es anstrengend wäre, dieser Forderung ständig nachzugeben. Der Unterschied zu Eichmann war, dass er nie nachgab, weil sein Denken völlig von der Realität getrennt war.
Die Lösung besteht also darin, dass Facebook seine Denkweise ändert. Bis jetzt sind selbst die positiven Schritte von Facebook – wie die Löschung von gewaltverherrlichenden Beiträgen oder die vorübergehende Sperrung des Verschwörungstheoretikers Alex Jones – nicht das Ergebnis von Gewissensprüfung, sondern von starkem öffentlichen Druck und PR-Fallout gewesen. Facebook tut nur dann das Richtige, wenn es dazu gezwungen wird. Stattdessen muss es bereit sein, das Ziel der totalen Vernetzung und des Wachstums zu opfern, wenn dieses Ziel einen menschlichen Preis hat; einen Entscheidungsprozess zu schaffen, der von den Facebook-Führungskräften verlangt, ihren instinktiven technologischen Optimismus mit den Realitäten des menschlichen Lebens abzugleichen.
Ohne menschliche Erwägungen wird Facebook weiterhin gedankenlosen, banalen Schaden in die Welt bringen. Die 2,5 Milliarden Menschen, die es als Teil ihres realen Lebens nutzen, werden sich das nicht ewig gefallen lassen.