La filtración de las políticas de Facebook que establecen qué es lo que se puede o no colgar en su plataforma, abre el debate sobre la ética de los gigantes de las redes sociales
Por primera vez, The Guardian ha tenido acceso a las reglas y directrices secretas que deciden qué es lo que pueden colgar los 2 mil millones de usuarios de la red social por excelencia.
“Facebook no puede tener control sobre su contenido”, dice una fuente a The Guardian. “Ha crecido demasiado y demasiado rápido”.
Se dice que muchos moderadores están preocupados por la inconsistencia y peculiar naturaleza de algunas de estas políticas. Los contenidos de índole sexual, por ejemplo, son de los más complejos y confusos.
En resumen, los Facebook Papers establecen que:
-
Comentarios como “Que alguien dispare a Trump”, deben eliminarse porque como jefe de Estado está en una categoría protegida. Pero está permitido decir: “Para romper el cuello de una zo***, asegúrate de aplicar toda la presión en medio de su garganta”, o “Que te jod** y muere”, porque no se perciben como amenazas reales.
-
Los vídeos de muertes violentas, marcados como sensibles, no tienen que borrarse siempre porque pueden ayudar a concienciar sobre temas como las enfermedades mentales.
-
Algunas fotos sin contenido sexual de abuso y bullying a menores no tienen por qué ser borradas a no ser que haya un elemento sádico o de celebración.
-
Las fotos de abuso animal se pueden compartir y solo imágenes realmente alarmantes se marcarán como “contenido sensible”.
-
Todo el arte “hecho a mano” que incluya desnudez y actividad sexual está permitido pero el arte digital que lo incluya, no.
-
Los vídeos de aborto están permitidos, siempre y cuando no haya desnudez.
-
Facebook permite a sus usuarios transmitir en vivo intentos de autolesión porque “no quiere censurar o castigar a las personas con angustia”.
-
Cualquiera con más de 100.000 seguidores se designa como figura pública, lo que niega una protección completa como la que se da a los usuarios privados.
Facebook admitió que “no todos los contenidos desagradables o perturbadores violan los estándares de nuestra comunidad”.
En uno de los documentos filtrados, Facebook reconoce que la gente “usa lenguaje violento para expresar su frustración online” y se siente “segura de hacerlo” en la red social.
Las políticas filtradas de Facebook en temas como muertes violentas, imágenes de abuso (no sexual) de menores y crueldad animal muestran cómo el sitio intenta navegar en un campo de minas.
Facebook no elimina automáticamente la evidencia de abuso infantil (no sexual) para permitir que el material sea compartido para que “el niño pueda ser identificado y rescatado, pero agregamos protecciones para proteger al público”. Esto podría ser una advertencia en el video de que el contenido es sensible.
Sobre el abuso animal también se explica: “Permitimos fotos y videos que documentan el abuso de los animales para la conciencia, pero algunos contenidos que se perciben como extremadamente sensibles por el público pueden agregar indicaciones para el espectador”.
Algunos críticos en los Estados Unidos y Europa han exigido que la compañía sea regulada de la misma manera que el resto de medios de comunicación tradicionales.
Pero Monika Bickert, responsable de la gestión de políticas de Facebook dijo que Facebook es “un nuevo tipo de compañía. No es una empresa de tecnología tradicional. No es una empresa de medios tradicional. Construimos tecnología y nos sentimos responsables de cómo se utiliza. No escribimos las noticias que la gente lee en la plataforma. ”
Facebook lucha constantemente para evaluar las noticias o el valor de “conciencia” de las imágenes violentas. Mientras, la compañía se ha enfrentado recientemente a fuertes críticas por no haber eliminado los videos de la muerte de Robert Godwin en Estados Unidos y de un padre que mató a su hijo en Tailandia.
Comentarios