Mendoza,

de
de

 

Tecnología

Revelan cómo Facebook modera contenidos sobre violencia, terrorismo y pornografía

The Guardian accedió a más de 100 manuales internos que dan una visión sin precedentes del plan que el gigante de las redes sociales utiliza para moderar temas como la violencia, el discurso de odio, el terrorismo, la pornografía, el racismo y la automutilación.

22/5/2017

Miles de páginas de los manuales internos sobre la política que Facebook utiliza para regular y controlar el contenido que se publica en su plataforma relacionado con la pornografía, las amenazas de terrorismo y violencia fueron reveladas por el diario británico The Guardian.

El periódico accedió a más de 100 manuales internos que dan una visión sin precedentes del plan que el gigante de las redes sociales utiliza para moderar temas como la violencia, el discurso de odio, el terrorismo, la pornografía, el racismo y la automutilación.

Los documentos muestran la compleja red de normas y reglamentos para controlar lo que está permitido y lo que no, e incluye aparentes inconsistencias en el enfoque con el que tratan una amenaza para "matar al presidente de Estados Unidos" y una amenaza a un usuario común.

Según la investigación, Facebook elimina de inmediato una amenaza de muerte al presidente de los Estados Unidos, pero se toma su tiempo para investigar si es en contra de cualquier usuario del público, de acuerdo con los documentos.

Asimismo, se indican las dificultades que enfrentan los ejecutivos ante nuevos retos como la "venganza porno" y los desafíos para los moderadores, quienes dicen estar "abrumados" por el volumen de trabajo y que a veces tienen "sólo diez segundos" para tomar una decisión.

Los moderadores tienen inquietudes sobre la inconsistencia y naturaleza peculiar de algunas de las políticas, y se señala que las referidas a algún contenido sexual, por ejemplo, son las más complejos y confusas.

Pero, quizás el tema más polémico es el de la violencia del cual Facebook ha sido objeto de críticas en los últimos meses por permitir videos violentos y de suicidio.

Tal es el caso de una niña de 12 años, que transmitió en directo su suicidio en el servicio "Live" de la red social. YouTube sacó el video casi de inmediato, pero los administradores de Facebook tardaron dos semanas en eliminarlo.

La firma fundada por Mark Zuckerberg también se enfrentó recientemente a fuertes críticas por no haber eliminado los videos del asesinato transmitido en vivo de Robert Godwin en Estados Unidos y el de un padre que mató a su hija en Tailandia.

Una joven mexicana anunció su suicidio en Facebook con una foto a punto de ahorcarse

La plataforma ha desempeñado a su vez un papel importante en la difusión de videos de homicidios policiales y otros abusos gubernamentales.

Para combatir el problema, el sitio adoptó diferentes pautas como permitir videos que muestran las autolesiones, siempre y cuando exista una “oportunidad de ayudar a la persona” y prohibió los videos de suicidio.

Las imágenes de niños y animales abusados siempre y cuando no sean de contenido sexual pueden permanecer como un esfuerzo para aumentar la conciencia y posiblemente ayudar a los afectados, según se indicó.

La red social considera, de acuerdo con los documentos filtrados, que cualquier persona con más de 100.000 seguidores en una plataforma de medios sociales es designada como una figura pública y se les niega la misma protección dada a los particulares.

Según indicó hoy la cadena británica BBC, Facebook aún no ha negado ni confirmado la veracidad de los documentos.

El Grupo de Derechos Abiertos, que trabaja temas de derechos digitales, dijo que el reporte demuestra la gran influencia que la red social más popular del mundo puede tener sobre sus 2.000 millones de usuarios, publicó la BBC.

"Las decisiones de Facebook sobre lo que es y no es aceptable tienen grandísimas implicaciones para la libertad de expresión", afirmó la organización en un comunicado.

 

Te puede interesar

te puede interesar también...
Visitá la sección Tecnología