AP

Una filtración de documentos internos de Facebook publicados por el diario inglés The Guardian muestran que la red social carece de políticas coordinadas para eliminar el lenguaje de odio en la plataforma.

Monika Bickert, la directora de política global de Facebook, le dijo al diario que ha sido sumamente difícil acordar qué tipo de contenidos deberían borrarse de la red que cuenta con casi 2 mil millones de usuarios en todo el mundo.

La filtración de más de 100 documentos y manuales que publicó The Guardian el pasado fin de semana también revela cómo la plataforma busca abordar el porno de venganza, los suicidios transmitidos vía Facebook Live y las amenazas de violencia entre usuarios.

Seg√ļn el diario, los ‚Äúmoderadores‚ÄĚ de Facebook tienen que revisar tantos casos que s√≥lo cuentan con un par de segundos para decidir si cierto contenido puede permanecer en la red o debe ser eliminado.

Varios empleados de Facebook que fueron entrevistados por The Guardian subrayaron que las pol√≠ticas de la plataforma para evaluar el contenido ofensivo son ‚Äúinconsistentes‚ÄĚ.

Advertisement

Un representante de Facebook le explicó a Fusion la semana pasada que la plataforma está expandiendo su equipo comunitario alrededor del mundo para poder evaluar el lenguaje de odio y los contenidos discriminatorios en los contextos de cada país.

‚ÄúTenemos una comunidad global que es muy diversa y la gente va a tener ideas diferentes sobre lo que es aceptable publicar‚ÄĚ, Bickert le dijo a The Guardian. ‚ÄúNo importa hasta donde establezcas los l√≠mites, siempre van a existir √°reas grises. Por ejemplo, la diferencia entre s√°tira y humor y contenido inaceptable es gris algunas veces. Es muy dif√≠cil decidir si algunas cosas deben estar en el sitio o no‚ÄĚ.

‚ÄúSeguiremos invirtiendo para mantener la seguridad en el sitio‚ÄĚ, afirm√≥ la directora de pol√≠tica global de la red social. ‚ÄúPero tambi√©n queremos que la gente nos informe sobre el contenido que viola nuestros est√°ndares‚ÄĚ.

Advertisement

Algunos usuarios advierten que si Facebook se mete de más podría comenzar a tomar decisiones editoriales. La red social también podría meterse en temas de censura y la primera enmienda estadounidense sin una definición clara de que constituye el lenguaje de odio.

Facebook anunció en mayo la contratación de 3,000 personas para revisar todo el contenido que es reportado por los usuarios.