Todo lo malo de Facebook lo es por la misma razón

En junio de 2016, Antonio Perkins retransmitió sin querer su propia muerte al mundo. Era un día soleado en Chicago, y lo compartía en Facebook Live, una plataforma para distribuir vídeo en tiempo real, lanzada apenas unos meses antes.

El vídeo es largo. En él aparece Perkins haciendo cosas mundanas de verano. De pie en la acera. Quejándose del calor. A los seis minutos, de repente, suenan disparos. La cámara se mueve frenéticamente, y luego cae al suelo. Más tarde, ese mismo día, Perkins fue declarado muerto.

El vídeo tiene cerca de un millón de visitas.

El feo

Al día siguiente, un memorando llamado «El feo» circuló internamente en Facebook. Su autor, Andrew Bosworth, uno de los vicepresidentes y responsables centrales de la compañía.

«Hablamos de lo bueno y lo malo de nuestro trabajo a menudo», comienza el memorándum, obtenido por BuzzFeed en marzo. «Quiero hablar de lo feo». Continúa:

Conectamos a la gente… Quizá cueste una vida exponiendo a alguien a los acosadores. Tal vez alguien muere en un ataque terrorista coordinado con nuestras herramientas. Y aun así conectamos a la gente. La fea verdad es que creemos en conectar a la gente tan profundamente que cualquier cosa que nos permita conectar a más gente más a menudo es buena de facto.

El memorándum no menciona a Perkins. Es posible que Bosworth no estuviera al tanto del incidente. Después de todo, las tragedias en tiempo real no son tan raras en Facebook Live.

Pero la muerte de Perkins retransmitida en directo es un ejemplo de «Lo feo». Aunque su muerte es trágica, el vídeo no viola las abstrusas normas comunitarias de la compañía, ya que no «glorifica la violencia» ni «celebra el sufrimiento o la humillación de otros.» Y dejarlo colgado significa que más gente se conectará a Perkins, y a Facebook, por lo que el vídeo se mantiene. Después de todo, tiene un millón de visitas.

La decisión es una de las muchas acciones recientes de Facebook que pueden haber dejado un mal sabor de boca. La compañía permitió, sin saberlo, que la campaña presidencial de Donald Trump recopilara datos personales de millones de estadounidenses. No se percató de los intentos de Rusia de influir en las elecciones de 2016; facilitó la violencia étnica y religiosa en varios países; y permitió a los anunciantes dirigirse a categorías de consumidores tan nobles como los «odiadores de los judíos.» Por no hablar de que las noticias falsas, las teorías de la conspiración y las mentiras descaradas abundan en la plataforma.

Facebook no pretendía que nada de esto sucediera. Sólo quería conectar a la gente. Pero hay un hilo conductor que va desde la muerte de Perkins hasta la violencia religiosa en Myanmar y los intentos a medias de la compañía por combatir las noticias falsas. Facebook es realmente malvado. No a propósito. En un sentido banal.

Debajo de todas las meteduras de pata de Facebook hay un olvido torpe de los seres humanos reales. El singular enfoque de la empresa en «conectar a la gente» le ha permitido conquistar el mundo, haciendo posible la creación de una vasta red de relaciones humanas, una fuente de información y de ojos que hace babear a los anunciantes y a los inversores.

Pero el imperativo de «conectar a la gente» carece del único ingrediente esencial para ser un buen ciudadano: Tratar a los seres humanos individuales como algo sacrosanto. Para Facebook, el mundo no está hecho de individuos, sino de conexiones entre ellos. Los miles de millones de cuentas de Facebook no pertenecen a «personas», sino a «usuarios», conjuntos de puntos de datos conectados a otros conjuntos de puntos de datos en una vasta red social, para ser dirigidos y monetizados por programas informáticos.

Hay ciertas cosas que no se pueden hacer en conciencia a los seres humanos. Con los datos se puede hacer lo que se quiera.

La vida como base de datos

Desde la publicación de «The Ugly», Bosworth se ha distanciado del argumento que plantea el memorándum. Ahora dice que sólo quería «sacar a la luz los problemas» y que, increíblemente, «no estaba de acuerdo con él ni siquiera cuando lo escribió». Mark Zuckerberg añadió que él también estaba muy en desacuerdo con el memorándum, diciendo: «Nunca hemos creído que el fin justifique los medios».

Una y otra vez, sin embargo, las decisiones de Facebook han revelado que conectar a la gente se considera un bien de facto en casi todos los casos. Por eso Zuckerberg, en una reciente entrevista con Recode, defendió la decisión de permitir publicaciones de quienes niegan el tiroteo de Sandy Hook y el Holocausto, diciendo que simplemente «se equivocan».

Con Facebook, «la vida se convierte en una base de datos», escribe el tecnólogo Jaron Lanier en su libro de 2010 You Are Not a Gadget. La cultura de Silicon Valley ha llegado a aceptar como cierto, escribe Lanier, que «toda la realidad, incluidos los seres humanos, es un gran sistema de información». Esta certeza, dice, da a los más poderosos del mundo de la tecnología «un nuevo tipo de destino manifiesto». Les da «una misión que cumplir».

Aceptar esa misión es conveniente para Facebook. Hace que escalar lo más rápido posible sea un imperativo moral. Desde este punto de vista, cuanto más grande sea Facebook, mejor será la empresa para el mundo. También es la forma de ganar más dinero.

El problema, dice Lanier, es que no hay nada especial en los seres humanos en este sistema de información. Todos los puntos de datos se tratan por igual, independientemente de cómo los experimenten los humanos. «Los que odian a los judíos» es una categoría publicitaria igual que «Las madres que hacen footing». Todo son datos. Si el Grupo A tiene una mayor presencia en Facebook que el Grupo B, que así sea, incluso si el Grupo A está tratando de degradar u organizar la violencia contra los B. Por supuesto, la realidad es que los seres humanos son todos diferentes, y no pueden reducirse a datos.

Prueba a decírselo al grupo de chicos blancos de la Ivy League que iniciaron Facebook como un sitio web de moda y que inventaron un barril de reconocimiento facial.

Lo que significa pensar

El error de Facebook no es nuevo. En general, las cosas se ponen feas cuando las organizaciones masivas y poderosas no tienen en cuenta la humanidad de los demás. Ahora vamos a hablar de los nazis.

El mejor análisis del fracaso intelectual de Facebook proviene de la teórica política Hannah Arendt en su libro Eichmann en Jerusalén. El libro es un relato del juicio de Adolf Eichmann en 1961. Eichmann, un burócrata nazi de nivel medio, fue el principal responsable de la logística del transporte forzoso de judíos a los campos de concentración durante la segunda guerra mundial.

Eichmann fue capturado en Argentina y llevado ante un tribunal israelí para explicar sus crímenes. Todos los presentes esperaban que fuera un loco sádico, perversamente obsesionado con la destrucción del pueblo judío.

En cambio, se reveló como un bufón y un arribista. Afirmaba haber olvidado los detalles de los principales acontecimientos políticos, mientras que recordaba con claridad cuál de sus compañeros obtenía un ascenso que él codiciaba. Según Arendt, un psiquiatra del tribunal israelí que examinó a Eichmann declaró que era «un hombre completamente normal, más normal, en todo caso, de lo que yo soy después de examinarlo».

La pregunta que atormentaba a Arendt era cómo un hombre tan «normal» había desempeñado un papel importante en el asesinato en masa. Eichmann envió a sabiendas a miles de judíos a una muerte segura.

Arendt concluye que no fue ni el sadismo ni el odio lo que llevó a Eichmann a cometer estos crímenes históricos. Un defecto «decisivo» de su carácter, escribe Arendt, fue su «incapacidad de ver algo desde el punto de vista del otro».

¿Cómo es que Eichmann, y otros cientos de nazis, no tenían una comprensión básica de la santidad de la vida humana? La respuesta está en la creencia de Eichmann en un gran proyecto histórico para establecer una «utopía» racialmente pura. Este proyecto trascendía las vidas humanas, haciéndolas secundarias. Una vida, o un millón de vidas, eran un pequeño precio a pagar por la promesa de lograr un «Reich de mil años».

La incapacidad de Eichmann para pensar en el sufrimiento de los demás surgió de su interiorización de la importancia suprema de un gran proyecto, concluye Arendt. Como el proyecto debe completarse sin importar el coste, cualquier cosa que lo promueva es buena de facto. Esa lógica puede distorsionar las normas sociales que damos por sentadas, incluso invirtiendo algo tan fundamental como «el asesinato está mal» en «el asesinato de los que se interponen en el camino del proyecto está bien».

Tal lógica demencial no resiste ni el más mínimo escrutinio. Pero Eichmann, al igual que los que le rodeaban, se protegió de la realidad de sus acciones utilizando abstracciones sin emoción. «Los clichés, las frases hechas, la adhesión a códigos convencionales y estandarizados de expresión y conducta tienen la función socialmente reconocida de protegernos contra la realidad», escribió Arendt en un ensayo titulado «Thinking», publicado en The New Yorker 15 años después del libro sobre Eichmann. Los acontecimientos y los hechos del mundo deberían estar siempre presionando nuestra «atención pensante», escribe, obligándonos a reevaluar nuestros comportamientos y creencias.

«Eichmann se diferenciaba del resto de nosotros», concluye, sólo en que no había ninguna conexión entre la realidad y su proceso de pensamiento. En su lugar, siguió ciegamente la retorcida moral que se había convertido en convencional en sus círculos. Y millones de personas murieron por ello.

Eso nos lleva de nuevo a Facebook. Tiene su propio gran proyecto: convertir el mundo humano en un gran sistema de información. No hace falta decir que no es tan terrible como el proyecto de los mil años del Reich. Pero el problema fundamental es el mismo: una incapacidad para mirar las cosas desde el punto de vista del otro, una desconexión entre la realidad humana y el gran proyecto.

El arco descendente del proyecto histórico

Arendt nos ayuda a ver cómo están relacionados todos los diversos errores de Facebook. He aquí un ejemplo que, aunque menor, ilustra la cuestión.

El año pasado, Mark Zuckerberg publicó un vídeo en el que mostraba Spaces, la nueva plataforma de realidad virtual de Facebook. En él, está representado por una versión de sí mismo generada por ordenador, brillante, cabezona y sonriente.

Esta caricatura de Zuck se ve primero en el exterior, en el tejado de la sede de Facebook. Luego saca una especie de orbe. El orbe, dice, contiene un vídeo de 360 grados de Puerto Rico tomado poco después de la devastación del huracán María. Este orbe se coloca delante de la cámara. De repente, Zuck -junto con el avatar de Rachel Franklin, jefa de realidad virtual social en Facebook- se «teletransporta» a la escena. Estas dos figuras se ven ahora «montadas en un camión» a través de vecindarios en ruinas y «de pie» sobre metros de agua inundada.

Oh, se olvidaron de mencionar lo genial que es esta tecnología, así que se detienen para chocar los cinco.

«Se siente como si estuviéramos realmente aquí en Puerto Rico», dice digi-Zuck (recuerda que todo esto es en CG deficiente). Saltan a varias escenas de desastre durante un par de minutos. «Muy bien, ¿quieres teletransportarte a otro lugar?» Otro orbe y son llevados de vuelta a California.

Para los que estamos fuera del gran proyecto de Facebook, este vídeo era obviamente una idea terrible. Los medios de comunicación lo ridiculizaron como algo insípido y de mal gusto. Aun así, el vídeo se abrió camino a través de las muchas capas de aprobación de Facebook. El hecho de que la gente de Facebook le diera el visto bueno cuando los problemas del vídeo eran tan claros para los espectadores externos es indicativo de hasta qué punto el sistema de valores de Facebook se ha desviado del del resto de la sociedad, resultado de su enfoque miope de conectar a todo el mundo como sea posible, sin importar las consecuencias.

Con esto en mente, el hilo conductor de los numerosos desastres de relaciones públicas de Facebook empieza a ser claro. Su continuo rechazo a los activistas de Sri Lanka y Myanmar que le imploran que haga algo con respecto a las incitaciones a la violencia. Su negativa a eliminar el material que califica la masacre de Sandy Hook de «broma» y amenaza a los padres de los niños asesinados. Su lenguaje engañoso sobre la privacidad y las prácticas de recopilación de datos.

Facebook parece estar ciego ante la posibilidad de que pueda ser utilizado para el mal. En la reciente entrevista de Zuckerberg con Kara Swisher de Recode, menciona la reunión con los gerentes de producto para Facebook Live. Parecían «genuinamente sorprendidos», dijo, cuando sugirió que podría usarse para transmitir asesinatos, acoso escolar y suicidios. «Parecían menos orientados a eso que a la positividad de lo que podría ocurrir en la plataforma», dice.

Esos peores escenarios ocurrieron, como demuestra gráficamente el vídeo de Antonio Perkins. No porque Facebook quisiera que nadie saliera herido. Todo porque, en algún momento, se protegió de la realidad humana con jerga de programación informática, clichés sobre la libertad de expresión y frases hechas que afirmaban la «positividad» de una tecno-utopía que, de hacerse realidad, tendría el bonito efecto secundario de generar montones de dinero.

Facebook ha caído presa del error fundamental de Arendt.

Piensa por ti mismo

Zuckerberg, de hecho, insinúa esta lectura de los fracasos de su empresa en un manifiesto de 6.000 palabras que escribió el pasado febrero sobre las ambiciones futuras de Facebook. En unas 4.500 palabras, admite que Facebook ha cometido errores y dice que «a menudo está de acuerdo» con los críticos. (No dice sobre qué específicamente.) Pero, añade, «Estos errores casi nunca se deben a que mantenemos posiciones ideológicas en desacuerdo con la comunidad, sino que son cuestiones de escala operativa».

Es cierto que Facebook rara vez mantiene «posiciones ideológicas en desacuerdo con la comunidad». Dado que Facebook es banal, suele carecer de posiciones ideológicas sobre cualquier cosa. La plataforma de medios sociales ha intentado durante mucho tiempo posicionarse como un bastión de neutralidad, una plataforma para las ideas de otras personas, un conducto pasivo. Cuando Swisher cuestionó a Zuckerberg por permitir que los negacionistas de Sandy Hook difundieran su mensaje, dijo: «Mira, por muy aborrecible que pueda ser parte de este contenido, creo que se reduce a este principio de dar voz a la gente».

Pero una organización con tanta influencia no necesita ser ideológicamente opuesta a la sociedad para causar daño. Sólo necesita dejar de pensar en los seres humanos, para sentirse cómoda desestimando la violencia religiosa, la discriminación étnica, el discurso de odio, la soledad, la discriminación por edad y la muerte transmitida en directo como «cuestiones de escala operativa.» Pensar en el suicidio como un «caso de uso» para Facebook Live.

En estos días, puede ser tentador argumentar que Facebook está en el camino correcto. La declaración de la misión de la compañía se cambió el año pasado para reducir la importancia de las «conexiones». En lugar de «hacer el mundo abierto y conectado», su objetivo es ahora «acercar el mundo». En julio, Facebook anunció que empezará a retirar las publicaciones que llamen a la violencia física en algunos países.

Eso no es suficiente. La nueva misión sigue sin hacer lo que Arendt dice que debe hacer. Sigue poniendo a Facebook, la plataforma, por encima de los seres humanos que la utilizan. Acercar el mundo puede significar facilitar la venta de pasteles y la lectura de la Biblia; también puede significar unir al KKK y a los cabezas rapadas. La declaración de la misión no tiene nada que decir sobre las diferencias entre ambos.

Facebook necesita aprender a pensar por sí mismo. Su propio responsable de seguridad, Alex Stamos, lo dijo en su memorando de salida, también adquirido por BuzzFeed. «Tenemos que estar dispuestos a elegir un bando cuando hay claras cuestiones morales o humanitarias», escribe. Eso es lo que Eichmann nunca hizo.

La solución no es que Facebook se convierta en el policía de la moralidad de Internet, decidiendo si todos y cada uno de los posts, vídeos y fotos deben ser permitidos. Sin embargo, no puede volver a su línea de ser una plataforma neutral, igualmente adecuada tanto para el amor como para el odio. Arendt decía que la realidad siempre está reclamando la atención de nuestros pensamientos. Siempre estamos tomando conciencia de nuevos hechos sobre el mundo; éstos deben ser considerados e incorporados a nuestra visión del mundo. Pero reconocía que ceder constantemente a esta demanda sería agotador. La diferencia con Eichmann es que él nunca cedió, porque su pensamiento estaba totalmente separado de la realidad.

La solución, pues, es que Facebook cambie su mentalidad. Hasta ahora, incluso los pasos positivos de Facebook -como la retirada de publicaciones que incitan a la violencia o la prohibición temporal del teórico de la conspiración Alex Jones- no han sido el resultado de un examen de conciencia, sino de una intensa presión pública y de las consecuencias de las relaciones públicas. Facebook sólo hace lo correcto cuando se ve obligado a ello. En cambio, tiene que estar dispuesto a sacrificar el objetivo de la conectividad y el crecimiento totales cuando este objetivo tiene un coste humano; crear un proceso de toma de decisiones que exija a los líderes de Facebook cotejar su instintivo optimismo tecnológico con las realidades de la vida humana.

Si no se tienen en cuenta las consideraciones humanas, Facebook seguirá causando un daño irreflexivo y banal al mundo. Los 2.500 millones de personas que lo utilizan, como parte de su vida real, no lo soportarán para siempre.