W czerwcu 2016 roku Antonio Perkins nieumyślnie transmitował światu własną śmierć. To był słoneczny dzień w Chicago, a on dzielił się nim na Facebook Live, platformie do dystrybucji wideo w czasie rzeczywistym, wydanej zaledwie kilka miesięcy wcześniej.
Wideo jest długie. Występuje w nim Perkins robiący prozaiczne letnie rzeczy. Stoi na chodniku. Skarży się na upał. Po około sześciu minutach, nagle rozlegają się strzały z pistoletu. Kamera porusza się gorączkowo, a potem upada na ziemię. Później tego samego dnia Perkins został uznany za zmarłego.
Klip ma blisko milion wyświetleń.
Brzydki
Następnego dnia notatka o nazwie „Brzydki” została rozpowszechniona wewnętrznie w Facebooku. Jego autor, Andrew Bosworth, jeden z wiceprezesów firmy i głównych decydentów.
„Rozmawiamy o dobrych i złych naszej pracy często”, memo, uzyskane przez BuzzFeed w marcu, zaczyna. „Chcę porozmawiać o tym, co brzydkie”. Dalej jest:
Łączymy ludzi…Może to kosztuje życie, narażając kogoś na dręczycieli. Może ktoś ginie w ataku terrorystycznym zaordynowanym przez nasze narzędzia. A i tak łączymy ludzi. Brzydka prawda jest taka, że wierzymy w łączenie ludzi tak głęboko, że wszystko, co pozwala nam łączyć więcej ludzi częściej, jest de facto dobre.
W notatce nie ma wzmianki o Perkinsie. Możliwe, że Bosworth nie wiedział o tym incydencie. Po tym wszystkim, tragedie w czasie rzeczywistym nie są tak rzadkie na Facebook Live.
Ale śmierć Perkinsa na żywo-streamed jest doskonałym przykładem „The Ugly.” Chociaż jego śmierć jest tragiczna, wideo nie narusza zawiłych standardów społecznościowych firmy, ponieważ nie „gloryfikuje przemocy” ani nie „celebruje cierpienia lub upokorzenia innych”. I pozostawiając go w górę oznacza więcej ludzi będzie łączyć się z Perkins, a do Facebooka, więc wideo pozostaje. To nie ma milion wyświetleń, po wszystkim.
Decyzja jest jednym z wielu ostatnich działań Facebook, które mogą zostawić zły smak w ustach. Firma nieświadomie pozwoliła kampanii prezydenckiej Donalda Trumpa na zbieranie danych osobowych milionów Amerykanów. Nie udało się zauważyć próby Rosji, aby wpłynąć na wybory 2016; ułatwione etnicznych i religijnych przemocy w kilku krajach, i pozwolił reklamodawcom kierować takie szlachetne kategorie konsumentów jako „nienawidzących Żydów”. Nie wspominając o tym, że fałszywe wiadomości, teorie spiskowe i rażące kłamstwa obfitują na platformie.
Facebook nie zamierzał, aby którakolwiek z tych rzeczy się wydarzyła. To po prostu chciał połączyć ludzi. Ale jest wątek biegnący od śmierci Perkinsa do przemocy religijnej w Myanmarze i firmy połowiczne próby zwalczania fake news. Facebook naprawdę jest zły. Nie celowo. W banalny rodzaj sposobu.
Podstawą wszystkich śrubek Facebooka jest bumelancka niepamięć do prawdziwych ludzi. Pojedyncze skupienie się firmy na „łączeniu ludzi” pozwoliło jej podbić świat, umożliwiając stworzenie ogromnej sieci relacji międzyludzkich, źródła spostrzeżeń i spojrzeń, które sprawiają, że reklamodawcom i inwestorom cieknie ślinka.
Ale imperatywowi „łączenia ludzi” brakuje jednego składnika niezbędnego do bycia dobrym obywatelem: Traktowanie poszczególnych istot ludzkich jako świętości. Dla Facebooka, świat nie składa się z jednostek, ale z połączeń między nimi. Miliardy kont na Facebooku nie należą do „ludzi”, ale do „użytkowników”, zbiorów punktów danych połączonych z innymi zbiorami punktów danych w ogromnej sieci społecznej, które mają być ukierunkowane i spieniężane przez programy komputerowe.
Są pewne rzeczy, których nie można z czystym sumieniem robić ludziom. Z danymi można robić, co się chce.
Życie jako baza danych
Od czasu upublicznienia „Brzydkiego” Bosworth zdystansował się od argumentów zawartych w notatce. Teraz twierdzi, że chciał jedynie „wypłynąć na powierzchnię” i że, co raczej niewiarygodne, „nie zgadzał się z nią nawet wtedy, gdy ją pisał”. Mark Zuckerberg dodał, że on też, zdecydowanie nie zgodził się z notatki, mówiąc: „Nigdy nie wierzyliśmy, że cele usprawiedliwiają środki.”
Czasem i ponownie, choć, wybory Facebook ujawniły, że łączenie ludzi jest uważany za de facto dobre w prawie wszystkich przypadkach. To dlatego Zuckerberg, w ostatnim wywiadzie z Recode, bronił decyzji, aby umożliwić posty od negacjonistów zarówno Sandy Hook strzelaniny i Holokaustu, mówiąc, że po prostu „dostać rzeczy źle.”
Z Facebooka, „życie jest przekształcony w bazie danych”, pisze technolog Jaron Lanier w jego 2010 książki You Are Not a Gadget. Kultura Doliny Krzemowej przyjęła za pewnik, jak pisze Lanier, że „cała rzeczywistość, w tym ludzie, to jeden wielki system informacyjny”. Ta pewność, jego zdaniem, daje najpotężniejszym ludziom świata technologii „nowy rodzaj manifestu przeznaczenia”. To daje im „misję do spełnienia.”
Przyjęcie tej misji jest wygodne dla Facebooka. To sprawia, że skalowanie tak szybko, jak to możliwe jest moralnym imperatywem. W tym ujęciu, im większy jest Facebook, tym lepiej firma jest dla świata. Tak się również składa, że jest to sposób na zarobienie największej ilości pieniędzy.
Problem, mówi Lanier, polega na tym, że nie ma nic specjalnego w ludziach w tym systemie informacyjnym. Każdy punkt danych jest traktowany jednakowo, niezależnie od tego, jak ludzie go doświadczają. „Nienawidzący Żydów” to taka sama kategoria reklamowa jak „Mamy, które uprawiają jogging”. To wszystko są dane. Jeśli grupa A jest bardziej obecna na Facebooku niż grupa B, to niech tak będzie, nawet jeśli grupa A próbuje poniżać lub organizować przemoc wobec grupy B. Oczywiście, rzeczywistość jest taka, że ludzie są różni i nie mogą być zredukowani do danych.
Spróbuj powiedzieć to grupie białych chłopców z Ivy League, którzy założyli Facebooka jako gorącą lub nie stronę internetową i wymyślili beczkę do rozpoznawania twarzy.
Co to znaczy myśleć
Błąd Facebooka nie jest nowy. Ogólnie rzecz biorąc, sprawy przybierają zły obrót, gdy masowe, potężne organizacje nie biorą pod uwagę człowieczeństwa innych. Teraz porozmawiamy o nazistach.
Najlepsza analiza intelektualnej porażki Facebooka pochodzi od teoretyczki politycznej Hannah Arendt z jej książki „Eichmann w Jerozolimie”. Książka ta jest relacją z procesu Adolfa Eichmanna z 1961 roku. Eichmann, nazistowski biurokrata średniego szczebla, był głównie odpowiedzialny za logistykę przymusowego transportu Żydów do obozów koncentracyjnych podczas drugiej wojny światowej.
Eichmann został schwytany w Argentynie i postawiony przed izraelskim sądem, aby wyjaśnić swoje zbrodnie. Wszyscy obecni spodziewali się, że będzie sadystycznym szaleńcem, z perwersyjną obsesją na punkcie zniszczenia narodu żydowskiego.
W zamian za to ujawnił się jako bufon i karierowicz. Twierdził, że nie pamiętał szczegółów ważnych wydarzeń politycznych, podczas gdy wyraźnie pamiętał, który z jego rówieśników otrzymał upragniony awans. Według Arendt, jeden z izraelskich psychiatrów sądowych, który badał Eichmanna, stwierdził, że był on „całkowicie normalnym człowiekiem, w każdym razie bardziej normalnym niż ja po zbadaniu go”
Pytanie, które dręczyło Arendt, dotyczyło tego, jak taki „normalny” człowiek odegrał główną rolę w masowym morderstwie. Eichmann świadomie wysłał tysiące Żydów na pewną śmierć.
Arendt dochodzi do wniosku, że to nie sadyzm ani nienawiść skłoniły Eichmanna do popełnienia tych historycznych zbrodni. Była to niezdolność do myślenia o innych ludziach jak o ludziach.
„Decydującą” wadą jego charakteru, pisze Arendt, była jego „niezdolność do spojrzenia na cokolwiek z punktu widzenia drugiego człowieka.”
Jak to się stało, że Eichmann, i setki innych nazistów, nie posiadali podstawowego zrozumienia świętości ludzkiego życia? Odpowiedź tkwi w wierze Eichmanna w wielki, historyczny projekt stworzenia rasowo czystej „utopii”. Projekt ten wykraczał poza ludzkie życie, czyniąc je drugorzędnym. Jedno życie, czy milion żyć, były niewielką ceną za obietnicę stworzenia „tysiącletniej Rzeszy”.”
Niezdolność Eichmanna do myślenia o cierpieniu innych wynikała z jego uwewnętrznienia najwyższej wagi wielkiego projektu, konkluduje Arendt. Ponieważ projekt ten musi zostać zrealizowany bez względu na koszty, wszystko, co go wspiera, jest de facto dobre. Ta logika może zniekształcić normy społeczne, które uznajemy za oczywiste, nawet odwracając coś tak fundamentalnego jak „morderstwo jest złe” w „morderstwo tych, którzy stoją na drodze projektu jest słuszne”
Taka obłąkana logika nie wytrzymuje nawet najmniejszej kontroli. Ale Eichmann, podobnie jak ci wokół niego, osłaniał się przed rzeczywistością swoich czynów za pomocą pozbawionych emocji abstrakcji. „Klisze, utarte zwroty, trzymanie się konwencjonalnych, standardowych kodów wypowiedzi i postępowania mają społecznie uznaną funkcję chronienia nas przed rzeczywistością” – pisała Arendt w eseju „Myślenie”, opublikowanym w The New Yorker 15 lat po książce o Eichmannie. Wydarzenia i fakty na świecie powinny zawsze naciskać na naszą „myślącą uwagę”, pisze, zmuszając nas do przewartościowania naszych zachowań i przekonań.
„Eichmann różnił się od reszty z nas”, konkluduje, tylko tym, że nie było żadnego związku między rzeczywistością a jego procesem myślowym. Zamiast tego ślepo podążał za pokrętną moralnością, która stała się konwencjonalna w jego kręgach. I miliony zginęły z tego powodu.
To prowadzi nas z powrotem do Facebooka. Ma on swój własny wielki projekt – przekształcić ludzki świat w jeden wielki system informacyjny. Jest to, rozumie się samo przez się, nigdzie w pobliżu tak straszne jak projekt tysiącletniej Rzeszy. Ale podstawowy problem jest ten sam: niezdolność do spojrzenia na rzeczy z punktu widzenia drugiego człowieka, rozłączenie między ludzką rzeczywistością a wielkim projektem.
Spadający w dół łuk projektu historycznego
Arendt pomaga nam zobaczyć, jak wszystkie różne błędy Facebooka są ze sobą powiązane. Oto przykład, który, choć drobny, ilustruje punkt.
W zeszłym roku Mark Zuckerberg wydał film pokazujący Spaces, nową platformę wirtualnej rzeczywistości Facebooka. W nim jest on reprezentowany przez błyszczącą, wielkogłową, uśmiechniętą, wygenerowaną komputerowo wersję samego siebie.
Ta karykatura Zuck’a jest najpierw widziana na zewnątrz, na dachu siedziby Facebooka. Następnie wyciąga jakiś rodzaj orbity. Kula, mówi, zawiera 360-video Puerto Rico podjęte wkrótce po zniszczeniach z huraganu Maria. Kula ta zostaje umieszczona przed kamerą. Nagle Zuck – wraz z awatarem Rachel Franklin, szefowej działu społecznej rzeczywistości wirtualnej w Facebooku – „teleportuje się” na scenę. Te dwie postacie widzimy teraz „jadące ciężarówką” przez zrujnowane dzielnice i „stojące” w stopach wody powodziowej.
Och, zapomnieli wspomnieć, jak fajna jest ta technologia, więc zatrzymują się, aby przybić piątkę.
„Czuję się, jakbyśmy naprawdę byli w Puerto Rico”, mówi digi-Zuck (pamiętajcie, że to wszystko jest w kiepskim CG). Skaczą wokół różnych scen katastrofy przez kilka minut. „W porządku, więc chcesz iść teleportować się gdzie indziej?” Kolejny orb i są whisked away, z powrotem do Kalifornii.
Do tych z nas poza wielkim projektem Facebook, to wideo było oczywiście straszny pomysł. News outlety wyśmiał go jako ton głuchy i bez smaku. Mimo to, filmik przeszedł przez wiele warstw akceptacji Facebooka. Fakt, że ludzie na Facebooku dali mu kciuka w górę, gdy problemy z wideo były tak jasne dla zewnętrznych widzów, wskazuje na stopień, w jakim system wartości Facebooka odbiegał od systemu reszty społeczeństwa – wynik jego krótkowzrocznego skupienia się na łączeniu wszystkich, jak to tylko możliwe, konsekwencje niech będą przeklęte.
Mając to na uwadze, wątek biegnący przez liczne katastrofy public-relations Facebooka zaczyna być jasny. Jego ciągłe odrzucanie aktywistów ze Sri Lanki i Myanmar błagając go, aby zrobić coś z podżeganiem do przemocy. Odmowa usunięcia materiałów, które nazywają masakrę w Sandy Hook „oszustwem” i grożą rodzicom zamordowanych dzieci. Jego wprowadzający w błąd język dotyczący prywatności i praktyk zbierania danych.
Facebook wydaje się być ślepy na możliwość, że może być wykorzystywany do złych celów. W ostatnim wywiadzie Zuckerberga z Recode’s Kara Swisher, wspomina spotkanie z menedżerami produktu dla Facebook Live. Wydawali się „szczerze zaskoczeni”, powiedziała, kiedy zasugerowała, że może to być używane do transmisji morderstw, zastraszania i samobójstw. „Wydawali się mniej zorientowani na to niż na pozytywność tego, co może się wydarzyć na platformie”, mówi.
Te najgorsze scenariusze się wydarzyły, jak wideo Antonio Perkinsa graficznie pokazuje. Nie dlatego, że Facebook chciał, aby komukolwiek stała się krzywda. Wszystko dlatego, że w pewnym momencie ochronił się przed ludzką rzeczywistością żargonem programowania komputerowego, frazesami o wolności słowa i frazesami zapewniającymi o „pozytywności” techno-utopii, która, jeśli zostanie zrealizowana, będzie miała miły efekt uboczny w postaci generowania mnóstwa gotówki.
Facebook padł ofiarą fundamentalnego błędu Arendt.
Myśl samodzielnie
Zuckerberg w rzeczywistości sugeruje takie odczytanie niepowodzeń swojej firmy w 6,000-sekundowym manifeście, który napisał w lutym zeszłego roku na temat przyszłych ambicji Facebooka. Około 4,500 słów w, przyznaje, że Facebook popełnił błędy, mówiąc, że „często zgadza się” z krytykami. (On nie mówi o co konkretnie.) Ale, dodaje, „Te błędy są prawie nigdy, ponieważ mamy ideologiczne stanowiska w sprzeczności ze społecznością, ale zamiast tego są operacyjne problemy skalowania.”
To prawda, że Facebook rzadko trzyma „ideologiczne stanowiska w sprzeczności ze społecznością”. Ponieważ Facebook jest banalny, zazwyczaj nie ma ideologicznych stanowisk na temat czegokolwiek w ogóle. Platforma społecznościowo-medialna od dawna próbuje pozycjonować się jako bastion neutralności, platforma dla cudzych pomysłów, pasywny przewodnik. Kiedy Swisher zakwestionował Zuckerberg na pozwalając Sandy Hook deniers do rozprzestrzeniania ich wiadomości, powiedział: „Spójrz, jak odrażające, jak niektóre z tych treści może być, myślę, że to sprowadza się do tej zasady dając ludziom głos.”
Ale organizacja z tak dużym wpływem nie musi być ideologicznie przeciwny do społeczeństwa, aby spowodować szkody. Musi tylko przestać myśleć o ludziach, aby czuć się komfortowo odrzucając przemoc religijną, dyskryminację etniczną, mowę nienawiści, samotność, dyskryminację ze względu na wiek i śmierć na żywo jako „operacyjne problemy skalowania”. Aby myśleć o samobójstwie jako „przypadek użycia” dla Facebook Live.
These dni, to może być kuszące, aby twierdzić, że Facebook jest na dobrej drodze. Deklaracja misji firmy została zmieniona w zeszłym roku, aby zmniejszyć znaczenie „połączeń”. Zamiast „make the world open and connected”, jej celem jest teraz „bring the world closer together”. W lipcu, Facebook ogłosił, że zacznie zdejmować posty, które wzywają do przemocy fizycznej w niektórych krajach.
To nie jest prawie wystarczająco. Nowa misja nadal nie robi tego, o czym Arendt mówi, że musi. Wciąż stawia Facebooka, platformę, ponad ludźmi, którzy z niej korzystają. Przybliżanie świata może oznaczać ułatwianie sprzedaży wypieków i czytania Biblii; może również oznaczać jednoczenie KKK i skinheadów. Deklaracja misji nie ma nic do powiedzenia na temat różnic między tymi dwoma.
Facebook musi nauczyć się myśleć za siebie. Jego własny oficer bezpieczeństwa, Alex Stamos, powiedział tyle w swoim odchodzącym memo, również zdobytym przez BuzzFeed. „Musimy być skłonni do wybierania stron, gdy istnieją wyraźne kwestie moralne lub humanitarne” – pisze. To jest to, co Eichmann nigdy nie zrobił.
Rozwiązanie nie jest dla Facebooka, aby stać się policja moralności w Internecie, decydując, czy każdy i każdy indywidualny post, wideo i zdjęcie powinno być dozwolone. Jednak nie może wycofać się ze swojej linii bycia neutralną platformą, równie dobrze nadającą się zarówno do miłości, jak i nienawiści. Arendt mówiła, że rzeczywistość nieustannie domaga się uwagi naszych myśli. Ciągle dowiadujemy się o nowych faktach dotyczących świata, które należy uwzględnić i włączyć do naszego światopoglądu. Przyznawała jednak, że ciągłe uleganie temu żądaniu jest wyczerpujące. Różnica z Eichmannem było to, że nigdy nie poddał się, ponieważ jego myślenie było całkowicie oddzielone od rzeczywistości.
Rozwiązanie, a następnie, jest dla Facebooka, aby zmienić swój sposób myślenia. Do tej pory, nawet Facebook pozytywne kroki – biorąc w dół posty podżegające do przemocy, lub tymczasowo zakazując teoremat spiskowy Alex Jones – pochodzą nie jako wynik soul-searching, ale z intensywnej presji publicznej i PR fallout. Facebook robi właściwe rzeczy tylko wtedy, gdy jest do tego zmuszony. Zamiast tego, musi być skłonny poświęcić cel całkowitej łączności i wzrostu, gdy ten cel ma ludzki koszt; aby stworzyć proces decyzyjny, który wymaga liderów Facebook sprawdzić ich instynktowny technologiczny optymizm przed realiami ludzkiego życia.
Bez ludzkich rozważań, Facebook będzie nadal przynosić bezmyślne, banalne szkody dla świata. 2,5 miliarda ludzi, którzy go używają, jako część ich prawdziwego życia, nie będzie tego wiecznie znosić.