Qualquer coisa ruim no Facebook é ruim pelo mesmo motivo

Em junho de 2016, Antonio Perkins transmitiu involuntariamente sua própria morte para o mundo. Era um dia ensolarado em Chicago, e ele estava compartilhando-o no Facebook Live, uma plataforma de distribuição de vídeo em tempo real, lançada apenas alguns meses antes.

O vídeo é longo. Ele apresenta Perkins fazendo coisas mundanas de verão. De pé na calçada. Reclamando sobre o calor. Cerca de seis minutos dentro, de repente, tiros de armas soam para fora. A câmera se move freneticamente, depois cai no chão. Mais tarde naquele dia, Perkins foi declarado morto.

O vídeo tem quase um milhão de visualizações.

The Ugly

No dia seguinte, um memorando chamado “The Ugly” foi circulado internamente no Facebook. Seu autor, Andrew Bosworth, um dos vice-presidentes e decisores centrais da empresa.

“Falamos freqüentemente sobre o bom e o ruim do nosso trabalho”, começa o memorando, obtido por BuzzFeed em março. “Eu quero falar sobre o feio.” Continua:

Conectamos pessoas… Talvez custe uma vida expondo alguém a rufiões. Talvez alguém morra num ataque terrorista coordenado com as nossas ferramentas. E ainda conectamos as pessoas. A feia verdade é que acreditamos em conectar as pessoas tão profundamente que qualquer coisa que nos permita conectar mais pessoas é de facto boa.

O memorando não menciona o Perkins. É possível que Bosworth não estivesse ciente do incidente. Afinal, tragédias em tempo real não são tão raras no Facebook Live.

Mas a morte ao vivo de Perkins é um excelente exemplo de “O Feio”. Embora a sua morte seja trágica, o vídeo não viola os padrões abstrusos da comunidade da empresa, pois não “glorifica a violência” ou “celebra o sofrimento ou a humilhação dos outros”. E deixá-lo para cima significa que mais pessoas vão se conectar com Perkins, e com o Facebook, então o vídeo fica. Afinal, ele tem um milhão de visualizações.

A decisão é uma das muitas ações recentes do Facebook que podem ter deixado um gosto ruim na sua boca. A empresa, inconscientemente, permitiu que a campanha presidencial de Donald Trump coletasse dados pessoais sobre milhões de americanos. Ela não percebeu as tentativas da Rússia de influenciar as eleições de 2016; facilitou a violência étnica e religiosa em vários países; e permitiu que os anunciantes visassem categorias tão nobres de consumidores como “detratores de judeus”. Sem mencionar que notícias falsas, teorias conspiratórias e mentiras flagrantes abundam na plataforma.

Facebook não pretendia que nada disso acontecesse. Ele só queria conectar as pessoas. Mas há um fio que vai da morte de Perkins à violência religiosa em Mianmar e as tentativas de meia-tigela da empresa de combater notícias falsas. O Facebook é mesmo mau. Não de propósito. De uma forma banal.

Onde todos os erros do Facebook é um esquecimento para os humanos reais. O foco singular da empresa em “conectar pessoas” tem permitido que ela conquiste o mundo, tornando possível a criação de uma vasta rede de relacionamentos humanos, uma fonte de insights e de olhares que faz os anunciantes e investidores babarem.

Mas o imperativo de “conectar pessoas” carece do único ingrediente essencial para ser um bom cidadão: Tratar os seres humanos individuais como sacrossantos. Para o Facebook, o mundo não é feito de indivíduos, mas de conexões entre eles. Os bilhões de contas do Facebook não pertencem às “pessoas”, mas aos “usuários”, coleções de pontos de dados conectados a outras coleções de pontos de dados em uma vasta Rede Social, para serem direcionados e monetizados por programas de computador.

Existem certas coisas que você não faz em boa consciência para os humanos. Aos dados, você pode fazer o que quiser.

Vida como um banco de dados

Desde o lançamento público de “The Ugly”, Bosworth se distanciou do argumento que o memorando faz. Ele agora diz que apenas queria “vir à tona” e que ele, inacreditavelmente, “não concordava com ele mesmo quando o escreveu”. Mark Zuckerberg acrescentou que também ele discordou fortemente do memorando, dizendo: “Nunca acreditamos que os fins justifiquem os meios”

Time e novamente, no entanto, as escolhas do Facebook revelaram que conectar pessoas é considerado um bem de facto em quase todos os casos. É por isso que Zuckerberg, em uma recente entrevista com a Recode, defendeu a decisão de permitir posts de negadores tanto do tiroteio Sandy Hook quanto do Holocausto, dizendo que eles apenas “pegam as coisas errado”

Com o Facebook, “a vida se transforma em um banco de dados”, escreve o tecnólogo Jaron Lanier em seu livro You Are Not a Gadget de 2010. A cultura do Vale do Silício chegou a aceitar como certo, escreve Lanier, que “toda a realidade, incluindo os humanos, é um grande sistema de informação”. Esta certeza, diz ele, dá às pessoas mais poderosas do mundo tecnológico “um novo tipo de destino manifesto”. Dá-lhes “uma missão a cumprir”.”

Aceitar essa missão é conveniente para o Facebook. Faz da escalada o mais rápido possível um imperativo moral. Nesta visão, quanto maior for o Facebook, melhor é a empresa para o mundo. Acontece que esta também é a forma de ganhar mais dinheiro.

O problema, diz Lanier, é que não há nada de especial nos humanos neste sistema de informação. Cada ponto de dados é tratado igualmente, independentemente de como os humanos o experimentam. “Odiadores de judeus” é tanto uma categoria de anúncios como “Mães que correm”. São todos dados. Se o Grupo A tem uma presença maior no Facebook do que o Grupo B, assim seja, mesmo que o Grupo A esteja tentando rebaixar ou organizar a violência contra os Bs. É claro, a realidade é que os humanos são todos diferentes, e não podem ser reduzidos a dados.

Tenta dizer isso ao grupo de rapazes brancos da Ivy League que começou o Facebook como um site quente ou não e inventou um barril de reconhecimento facial.

O que significa pensar

O erro do Facebook não é novo. Em geral, as coisas ficam feias quando organizações maciças e poderosas falham em considerar a humanidade dos outros. Vamos falar sobre nazistas agora.

A melhor análise do fracasso intelectual do Facebook vem da teórica política Hannah Arendt em seu livro Eichmann em Jerusalém. O livro é um relato do julgamento de 1961 de Adolf Eichmann. Um burocrata nazista de nível médio, Eichmann foi o principal responsável pela logística do transporte forçado de judeus para campos de concentração durante a Segunda Guerra Mundial.

Eichmann foi capturado na Argentina e levado à frente de um tribunal israelense para explicar seus crimes. Todos os presentes esperavam que ele fosse um louco sádico, perversamente obcecado com a destruição do povo judeu.

Em vez disso, ele se revelou um bufão e um carreirista. Ele afirmava ter esquecido os detalhes dos grandes eventos políticos, ao mesmo tempo em que se lembrava claramente qual dos seus pares recebeu uma promoção que cobiçava. Segundo Arendt, um psiquiatra da corte israelense que examinou Eichmann declarou-o “um homem completamente normal, mais normal, de qualquer forma, do que eu depois de examiná-lo”

A questão que assombrava Arendt era como um homem tão “normal” tinha desempenhado um papel importante no assassinato em massa. Eichmann enviou conscientemente milhares de judeus para a morte certa.

Arendt conclui que não foi o sadismo nem o ódio que levou Eichmann a cometer estes crimes históricos. Foi uma falha em pensar em outras pessoas como pessoas.

Uma falha “decisiva” em seu caráter, escreve Arendt, foi sua “incapacidade de sempre olhar para qualquer coisa do ponto de vista do outro sujeito”.

Como foi que Eichmann, e centenas de outros nazistas, falharam em possuir uma compreensão básica da santidade da vida humana? A resposta está na crença de Eichmann num grande projecto histórico para estabelecer uma “utopia” racialmente pura. Este projecto transcendeu as vidas humanas, tornando-as secundárias. Uma vida, ou um milhão de vidas, foram pequenos preços a pagar pela promessa de trazer um “Reich milenar”

A incapacidade de Eichmann de pensar no sofrimento dos outros surgiu de sua internalização da suprema importância de um grande projeto, conclui Arendt. Porque o projeto deve ser concluído não importa o custo, qualquer coisa que o aumente é de fato bom. Essa lógica pode distorcer as normas sociais que tomamos por garantidas, mesmo invertendo algo tão fundamental como “assassinato é errado” em “assassinato daqueles que se interpõem no caminho do projeto é certo”

Tanta lógica demente não aguenta nem um pouquinho de escrutínio. Mas Eichmann, como aqueles ao seu redor, se protegeu da realidade de suas ações usando abstrações sem emoção. “Os clichês, as frases de estoque, a adesão a códigos de expressão e conduta convencionais e padronizados têm a função socialmente reconhecida de nos proteger contra a realidade”, escreveu Arendt em um ensaio chamado “Thinking”, publicado no The New Yorker 15 anos após o livro de Eichmann. Os acontecimentos e fatos do mundo deveriam estar sempre pressionando nossa “atenção pensante”, escreve ela, forçando-nos a reavaliar nossos comportamentos e crenças.

“Eichmann diferiu do resto de nós”, conclui ela, apenas no sentido de que não havia conexão entre a realidade e seu processo de pensamento. Em vez disso, ele seguiu cegamente a moralidade retorcida que se tinha tornado convencional em seus círculos. E milhões morreram por causa disso.

Isso nos leva de volta ao Facebook. Ele tem seu próprio grande projeto – transformar o mundo humano em um grande sistema de informação. Isto é, escusado será dizer, nada tão terrível como o projecto dos mil anos do Reich. Mas o problema fundamental é o mesmo: uma incapacidade de olhar as coisas do ponto de vista do outro, uma desconexão entre a realidade humana e o grande projeto.

O arco descendente do projeto histórico

Arendt nos ajuda a ver como todos os vários passos errados do Facebook estão relacionados. Aqui está um exemplo que, embora menor, ilustra o ponto.

No ano passado, Mark Zuckerberg lançou um vídeo mostrando Spaces, a nova plataforma de realidade virtual do Facebook. Nele, ele é representado por uma brilhante, cabeçuda, sorridente, versão de si mesmo gerada por computador.

Esta caricatura de Zuck é vista primeiro do lado de fora, no telhado da sede do Facebook. Ele então retira uma espécie de esfera. A esfera, diz ele, contém um 360-vídeo de Porto Rico, tirado pouco depois da devastação do Furacão Maria. Este globo é colocado em frente à câmara. De repente, Zuck-along com o avatar de Rachel Franklin, chefe da realidade social virtual do Facebook-“teleporte” para o local. Essas duas figuras agora são vistas “andando de caminhão” por bairros arruinados e “de pé” em pés de água.

Oh, eles esqueceram de mencionar o quão legal essa tecnologia é, então eles param para o alto-cinco.

“Parece que estamos realmente aqui em Porto Rico”, diz Digi-Zuck (lembre-se que tudo isso está no subparágrafo CG). Eles saltam para várias cenas de desastre por alguns minutos. “Muito bem, então queres ir teleportar-te para outro lugar?” Outra esfera e eles são levados de volta à Califórnia.

Para aqueles de nós fora do grande projeto do Facebook, este vídeo foi obviamente uma péssima idéia. Os noticiários ridicularizaram-no como surdo e sem sabor. Mesmo assim, o vídeo conseguiu atravessar as muitas camadas de aprovação do Facebook. O fato de que as pessoas no Facebook deram a ele o seu apoio quando os problemas do vídeo foram tão claros para os telespectadores externos, é indicativo do quanto o sistema de valores do Facebook divergiu do resto da sociedade – o resultado do seu foco míope em conectar todos, por mais possíveis que sejam, as conseqüências sejam condenadas.

Com isso em mente, o fio condutor dos numerosos desastres de relações públicas do Facebook começa a se tornar claro. Sua contínua demissão de ativistas do Sri Lanka e Myanmar implorando que fizesse algo a respeito de incitamentos à violência. Sua recusa em remover material que chama o massacre de Sandy Hook de “embuste” e ameaça os pais de crianças assassinadas. Sua linguagem enganosa sobre privacidade e práticas de coleta de dados.

Facebook parece cego para a possibilidade de que ele possa ser usado para doentes. Na recente entrevista de Zuckerberg com Kara Swisher, da Recode, ela menciona uma reunião com gerentes de produtos para o Facebook Live. Eles pareceram “genuinamente surpresos”, disse ela, quando sugeriu que ele poderia ser usado para transmitir assassinatos, intimidações e suicídio. “Eles pareciam menos orientados a isso do que à positividade do que poderia acontecer na plataforma”, diz ela.

Os piores cenários aconteceram, como o vídeo de Antonio Perkins demonstra graficamente. Não porque o Facebook quisesse que alguém se magoasse. Tudo porque, em algum momento, ele se protegia da realidade humana com jargões de programação de computadores, clichês sobre liberdade de expressão e frases de estoque afirmando a “positividade” de uma tecno-utópia que, se realizada, teria o agradável efeito colateral de gerar barcos carregados de dinheiro.

Facebook caiu vítima do erro fundamental de Arendt.

Pense por si mesmo

Zuckerberg de fato dá dicas para esta leitura dos fracassos de sua empresa em um manifesto de 6.000 palavras que ele escreveu em fevereiro passado nas ambições futuras do Facebook. Cerca de 4.500 palavras em, ele admite que o Facebook cometeu erros, dizendo que ele “muitas vezes concorda” com os críticos. (Ele não diz sobre o que especificamente.) Mas, ele acrescenta, “Esses erros quase nunca são porque mantemos posições ideológicas em desacordo com a comunidade, mas, em vez disso, são problemas operacionais de escala”. Uma vez que o Facebook é banal, ele normalmente não tem posições ideológicas sobre nada. A plataforma social-mídia tem tentado se posicionar como um bastião de neutralidade, uma plataforma para as idéias de outras pessoas, um conduto passivo. Quando Swisher desafiou Zuckerberg a permitir que Sandy Hook deniers espalhasse sua mensagem, ele disse: “Olha, por mais detestável que algum desse conteúdo possa ser, eu acho que se resume a esse princípio de dar voz às pessoas”

Mas uma organização com tanta influência não precisa ser ideologicamente oposta à sociedade para causar danos. Ela só precisa parar de pensar nos humanos, sentir-se confortável em descartar a violência religiosa, a discriminação étnica, o discurso do ódio, a solidão, a discriminação etária e a morte em directo, como “questões de escala operacional”. Pensar no suicídio como um “caso de uso” para o Facebook Live.

Hoje em dia, pode ser tentador argumentar que o Facebook está no caminho certo. A declaração de missão da empresa foi alterada no ano passado, para reduzir a importância das “conexões”. Em vez de “fazer o mundo aberto e conectado”, o seu objetivo agora é “aproximar o mundo”. Em julho, o Facebook anunciou que começará a retirar publicações que chamam por violência física em alguns países.

Isso não é quase o suficiente. A nova missão ainda não faz o que Arendt diz que deve fazer. Ele ainda coloca o Facebook, a plataforma, acima dos humanos que o usam. Aproximar o mundo pode significar facilitar a venda de bolos e leituras bíblicas; também pode significar unir o KKK e os skinheads. A declaração de missão não tem nada a dizer sobre as diferenças entre os dois.

Facebook precisa aprender a pensar por si mesmo. Seu próprio oficial de segurança, Alex Stamos, disse o mesmo em seu memorando de partida, também adquirido pelo BuzzFeed. “Precisamos estar dispostos a escolher lados quando há claras questões morais ou humanitárias”, escreve ele. Isso é o que Eichmann nunca fez.

A solução não é o Facebook se tornar a polícia moral da internet, decidindo se cada post, vídeo e foto individual deve ser permitido. No entanto, ele não pode cair na sua linha de ser uma plataforma neutra, igualmente adequada tanto para o amor quanto para o ódio. Arendt disse que a realidade está sempre exigindo a atenção dos nossos pensamentos. Estamos sempre tomando consciência de novos fatos sobre o mundo; estes precisam ser considerados e incorporados à nossa visão de mundo. Mas ela reconheceu que ceder constantemente a essa demanda seria cansativo. A diferença com Eichmann foi que ele nunca cedeu, porque seu pensamento estava totalmente separado da realidade.

A solução, então, é que o Facebook mude sua mentalidade. Até agora, até mesmo os passos positivos do Facebook – como derrubar posts incitando à violência, ou banir temporariamente o teórico da conspiração Alex Jones – vieram não como resultado da procura pela alma, mas da intensa pressão do público e da queda de relações públicas. O Facebook só faz a coisa certa quando é obrigado a isso. Em vez disso, ele precisa estar disposto a sacrificar o objetivo de total conectividade e crescimento quando esse objetivo tem um custo humano; para criar um processo de tomada de decisão que requer que os líderes do Facebook verifiquem o seu otimismo tecnológico instintivo contra as realidades da vida humana.

Absent considerações humanas, o Facebook continuará a trazer danos impensados e banais para o mundo. As 2,5 bilhões de pessoas que o usam, como parte de suas vidas reais, não vão tolerar isso para sempre.