El diario británico The Guardian accedió a los manuales internos que siguen los 4500 moderadores de la red social para tratar de controlar los excesos publicados en 96 idiomas por sus casi 2000 millones de usuarios

Nació en 2005 como la mayor promesa del siglo XXI. Un ideal de democracia directa, donde la gente podría comunicarse sin censura ni control.

Doce años después, Facebook parece haberse transformado en una pesadilla. Sus responsables no consiguen poner límite a la omnipresencia del sexo, la violencia y la propaganda del terrorismo.

Reino aparte, delimitado por una frontera intangible que no se basa en la ley común ni en los sistemas judiciales normales, Facebook representa un sistema jurídico en sí mismo; erigió sus tablas de la ley sin develarlas jamás.

Esa dramática realidad apareció a la luz del día anteayer cuando, tras una minuciosa investigación, el periódico británico The Guardian publicó las reglas secretas que siguen los 4500 moderadores de la red social para tratar de controlar los excesos publicados en 96 idiomas por sus casi 2000 millones de usuarios.

face

En la larga lista de “horrores”, hay imágenes violentas que van del terrorismo a la pornografía, pasando por el canibalismo. Así como manifestaciones de odio y suicidios en directo. Para trabajar -relata The Guardian-, los moderadores usan fichas con ejemplos precisos, cuyas indicaciones causan perplejidad. Así, si alguien amenaza con asesinar al presidente Donald Trump, la publicación debe ser censurada porque los jefes de Estado son considerados “vulnerables”. Sin embargo están permitidas las amenazas contra el resto de la gente.

En esos textos, la línea entre sátira o humor y contenidos agresivos es extremadamente confusa, y transforma la tarea del moderador en un rompecabezas. Por ejemplo pueden autorizar mensajes como “para desnucar a una p… hay que apoyar fuerte en el medio del cuello” o “andá a hacerte c… y morite”, porque ninguna de esas expresiones es considerada una amenaza creíble.

En los documentos revelados, Facebook estima que “la gente usa un lenguaje violento para expresar en línea su frustración” y que “haciéndolo, se sienten seguros”.

La red social más célebre del planeta asume así un papel de válvula de escape, que sólo es posible gracias a una comunicación virtual e indirecta.

Miles de acusaciones llovieron sobre Facebook por haber demorado demasiado en suprimir videos de muertes violentas.

En abril, el norteamericano Robert Godwin filmó en directo el momento en que mató de un balazo a un abuelo en las calles de Cleveland. Poco después, un internauta difundió el asesinato de su hija de 11 meses en Tailandia, seguido de su suicidio.

Pero Facebook no considera que esos contenidos deben ser sistemáticamente censurados. Si bien hay que informar que esos videos pueden “herir la sensibilidad” de los usuarios, sirven para “crear conciencia sobre las consecuencias de las enfermedades mentales”, se indica en su manual interno. Por eso autorizó la difusión de suicidios en directo. Porque no quiere “censurar o castigar a la gente desesperada”. No obstante, la secuencia será suprimida “cuando ya no sea posible ayudar” a la víctima.

“Con excepción de los abusos sexuales”, tampoco se retiran automáticamente videos o fotos que muestran niños siendo maltratados. A menos que esas imágenes estén acompañadas de comentarios sádicos o glorifiquen ese tipo de comportamiento. Explicación: “A fin de que el niño pueda ser identificado y salvado”, anota el manual.

La política de Facebook es prácticamente la misma cuando se trata de animales torturados. Para analizar la reacción de la red social, The Guardian publicó la foto de un gato colgado de un gancho y quemado con un soplete en un país asiático.

La respuesta fue “dejar pasar”, pues se trata de una práctica culinaria y no de un acto de tortura. Las revelaciones de The Guardian provocaron la indignación de la mayoría de las ONG, que la acusan de ignorar la ley y dictar sus propios códigos éticos.

“Facebook no es árbitro de las normas sociales”, declaró Claire Lilley, directora de la National Society for the Prevention of Cruelty to Children (Nspcc).

“No son ellos quienes deben decidir qué es mejor para los niños o el público. Si algo debe ser investigado o juzgado y los criminales presentados ante la justicia, no es Facebook quien debe llamar por teléfono. Es la policía quien debe hacerlo”, agregó. Nspcc exige que los algoritmos supriman automáticamente los contenidos extremos.

Tras varias polémicas internacionales, las reglas que rigen los desnudos en la red social variaron. Facebook permite “excepciones” cuando se trata de imágenes históricas o de actualidad, sobre todo en el marco de su política a favor de “la guerra contra el terrorismo”.

Más sorprendente son otros pasajes del manual: los videos de abortos son autorizados, a condición de que no muestren cuerpos desnudos. Por suerte, las víctimas de los revenge porn pueden respirar: tras miles de denuncias, Facebook proscribió esa práctica de difusión de fotos o videos íntimos de una tercera persona sin su consentimiento.

Pero la decisión de censurar no es automática. Para que exista revenge porn, la empresa estableció una lista de características: es necesario que la imagen haya sido tomada en la intimidad, que alguien esté desnudo, casi desnudo o sexualmente activo y, por fin, que su consentimiento pueda ser puesto en tela de juicio mediante un comentario revanchista o cruel sobre el contenido, o que un medio haya cubierto el episodio.

Regularmente criticado en Europa y en Estados Unidos por su ausencia de control, Facebook prevé emplear otras 3000 personas para atender un volumen de contenidos cada vez más importante. Según The Guardian, los moderadores de Facebook tienen “apenas 10 segundos para tomar una decisión”.

“Internet se rompió”

En una entrevista con The New York Times, Evan Williams, uno de los fundadores de Twitter y cocreador de Blogger, dijo: “Pienso que Internet se rompió”. Se refería al uso que le dan algunas personas a las redes sociales, como quienes transmiten en Facebook suicidios, golpizas u homicidios, o a cómo Twitter se volvió un lugar para trolls y abusos.

Algunas de las “leyes ” ocultas

Estos ocho puntos integran los manuales internos de Facebook, según reveló The Guardian

1 – Comentarios como “Alguien debe darle un tiro a Trump” deben ser eliminados, ya que como presidente se encuentra en una categoría protegida. Sin embargo, se podría permitir decir: “Para romper el cuello de un perro asegúrese de aplicar toda la presión en la mitad de su garganta” o “vete a la mierda y muérete” porque no son consideradas amenazas creíbles.

2 – Los videos de muertes violentas no siempre tienen que ser borrados, ya que pueden ayudar a concienciar sobre problemas tales como una enfermedad mental.

3 – Algunas imágenes de abuso físico no sexual y de intimidación de niños tampoco tienen que ser eliminadas a menos que haya un componente sádico.

4 – Las fotos de abusos a animales se pueden compartir. Si el contenido es realmente perturbador se clasifica como tal, pero no se eliminará.

5 – Se puede compartir arte que muestre desnudez o actividad sexual si “está hecho a mano”. Sin embargo, si se trata de arte digital de la misma temática no estará permitido.

6 – Se permiten videos de abortos, siempre y cuando no haya desnudos.

7 – Facebook permitirá retransmisiones en vivo de intentos de autolesión, ya que “no quiere censurar o castigar a personas en peligro”.

8 – Cualquier persona con más de 100.000 seguidores se designará una figura pública y se le negarán todas las protecciones dadas a los individuos privados.