A lo largo de los últimos meses, varias organizaciones han alertado sobre la pasividad de plataformas como Facebook, Google o Twitter para combatir los contenidos que se encargan de propagar discursos de odio, violencia, abusos sexuales, de menores o animales. De Fake News, mejor, ni hablamos.

Y es que… ¿qué tanto podemos decir que tu muro es tu muro?

El periódico The Guardian ha publicado una investigación en la que recorre más de 100 manuales internos sobre las políticas de Facebook para moderar comentarios o contenidos sobre sexo, terrorismo, violencia y hasta canibalismo.

En marzo, un grupo de jóvenes violó a una adolescente en Chicago. El video fue transmitido en Facebook. Un mes más tarde, un hombre en Cleveland cometió un asesinato y también subió el video a la plataforma. Lo mismo ocurrió con un tailandés que ahorcó a su hijo de 11 meses y, antes de suicidarse, subió el video a la red.

En cada uno de estos casos, Facebook tardó más de 24 horas en eliminar los contenidos y los manuales filtrados contemplan que algunas muertes violentas, abusos físicos contra menores o autolesiones pueden “pasarse”, bajo el argumento de que estos contenidos pueden servir como una llamada de atención sobre los problemas de salud mental. En el caso de autolestiones, el manual señala que estas publicaciones pueden ser una alerta para que los amigos de ese usuario descubran que tiene un problema y puedan ayudarlo.

La filtración hecha por The Guardian nos ayuda a dimensionar el nivel de la problemática que conlleva moderar contenidos en una red social, y sin lugar a dudas es uno de los retos más importantes que afrontan diversas plataformas.

Un ejemplo de ello es la tolerancia que puede existir, de acuerdo a los manuales publicados en favor de expresiones como “jódete y muere” o “espero que alguien te mate” o “esa muchachita que mejor se quede tranquila antes de que papi le rompa la cara”, que para Facebook pueden calificar como “amenazas no creíbles”.

En contraparte, se contempla que frases como “que alguien le dispare a Trump” deben borrarse inmediatamente, pues, al ser un jefe de estado, se encuentra dentro de lo que se considera una “categoría protegida”.

Y es que la diferencia, según los manuales publicados por The Guardian, radica en que la gente suele utilizar un lenguaje violento para expresar su frustración en línea.

La documentación presentada es tan solo un vistazo al complejo proceso de decisiones al que se enfrenta diariamente una compañía que cuenta con casi dos mil millones de usuarios en todo el mundo y que, de acuerdo a sus moderadores, reciben más de 7 millones de reportes a la semana, lo cual les da apenas un lapso de aproximadamente 10 segundos para revisar cada caso.

Emojis Facebook

Éstas son algunas de las reglas estipuladas en uno de los manuales de Facebook para sus moderadores:

Los vídeos de muertes violentas están marcados como perturbadores pero no siempre son eliminados. Su difusión puede ayudar a concietizar sobre problemas mentales.

Los vídeos de abortos se pueden publicar si no aparecen desnudos.

Cualquier persona con más de 100,000 seguidores es considerada figura pública, por lo que se les negarán las protecciones ofrecidas a inviduos privados.

Facebook permitirá la transmisión de intentos de autolesión porque “no quiere censurar o castigar a las personas en peligro”.

Algunas fotografías de abuso físico no sexual y de intimidación de niños no tienen que ser eliminadas, al menos que haya un elemento sádico o de celebración

Si bien Facebook es una entidad privada, no podemos ignorar la influencia que ejerce diariamente en nuestras vidas, por lo que el trabajo presentado por The Guardian nos ayuda a entender mejor el funcionamiento que le permite a una persona o a un algoritmo decidir qué es lo que vemos cada vez que abrimos nuestro timeline.

Aquí puedes revisar la investigación completa realizada por The Guardian.

Todo lo que no sabías que necesitas saber lo encuentras en Sopitas.com

Comentarios

Comenta con tu cuenta de Facebook