AP

Una filtración de documentos internos de Facebook publicados por el diario inglés The Guardian muestran que la red social carece de políticas coordinadas para eliminar el lenguaje de odio en la plataforma.

Monika Bickert, la directora de política global de Facebook, le dijo al diario que ha sido sumamente difícil acordar qué tipo de contenidos deberían borrarse de la red que cuenta con casi 2 mil millones de usuarios en todo el mundo.

Advertisement

La filtración de más de 100 documentos y manuales que publicó The Guardian el pasado fin de semana también revela cómo la plataforma busca abordar el porno de venganza, los suicidios transmitidos vía Facebook Live y las amenazas de violencia entre usuarios.

Según el diario, los “moderadores” de Facebook tienen que revisar tantos casos que sólo cuentan con un par de segundos para decidir si cierto contenido puede permanecer en la red o debe ser eliminado.

Varios empleados de Facebook que fueron entrevistados por The Guardian subrayaron que las políticas de la plataforma para evaluar el contenido ofensivo son “inconsistentes”.

Advertisement

Un representante de Facebook le explicó a Fusion la semana pasada que la plataforma está expandiendo su equipo comunitario alrededor del mundo para poder evaluar el lenguaje de odio y los contenidos discriminatorios en los contextos de cada país.

“Tenemos una comunidad global que es muy diversa y la gente va a tener ideas diferentes sobre lo que es aceptable publicar”, Bickert le dijo a The Guardian. “No importa hasta donde establezcas los límites, siempre van a existir áreas grises. Por ejemplo, la diferencia entre sátira y humor y contenido inaceptable es gris algunas veces. Es muy difícil decidir si algunas cosas deben estar en el sitio o no”.

“Seguiremos invirtiendo para mantener la seguridad en el sitio”, afirmó la directora de política global de la red social. “Pero también queremos que la gente nos informe sobre el contenido que viola nuestros estándares”.

Advertisement

Algunos usuarios advierten que si Facebook se mete de más podría comenzar a tomar decisiones editoriales. La red social también podría meterse en temas de censura y la primera enmienda estadounidense sin una definición clara de que constituye el lenguaje de odio.

Facebook anunció en mayo la contratación de 3,000 personas para revisar todo el contenido que es reportado por los usuarios.