Social Media Marketing

Una investigación de Channel 4 revela los fallos en el control de contenidos en Facebook

Dentro de Facebook: los errores en la moderación de contenidos de la red social

El medio británico Channel 4 evidencia los errores de Facebook a la hora de moderar los contenidos que se distribuyen en la red social.

Dentro de Facebook: los errores en la moderación de contenidos de la red socialLos escándalos no dejan de sucederse en Facebook. Tras la polémica de las fake news, las múltiples filtraciones de datos y la escasa capacidad de la compañía para hacer frente a estos problemas, ahora la red social tiene una nueva batalla por librar.

Las revelaciones del medio británico Channel 4 sobre los fallos cometidos en un centro de moderación de contenidos de Facebook han hecho saltar las críticas hacia la dejadez de la red social.

A través de la infiltración de un reportero, que se hizo pasar por un trabajador del centro, se descubrieron algunas carencias, tanto a nivel de formación de los empleados como en el protocolo de trabajo que suscitan muchas dudas sobre la eficacia de estos centros.

Según la investigación, los empleados cuentan con 3 opciones a la hora de valorar los contenidos: ignorarlos, eliminarlos o marcarlos como molestos, lo que quiere decir que permanecen en Facebook, pero con restricciones de visibilidad.

Es el caso de un vídeo en el que se puede ver a un adulto golpeando a un niño que fue denunciado ya en el año 2012 pero que, a día de hoy, puede ser fácilmente encontrado y ha sido compartido más de 44.000 veces.

Pero no es el único ejemplo. Aunque la plataforma establece en sus políticas que no admite discursos de odio, sigue acogiendo memes violentos o racistas. El reportero hace referencia a una imagen en la que se ve a una niña con la cabeza bajo el agua y acompañada de un texto que reza: “Cuando el primer amor de tu hija es un niño negro”.

La razón que aducen los trabajadores para considerarla como una opción a ignorar es la dificultad y los múltiples pasos hasta que sea considerada como una violación de las políticas de la red social.

Otra de las denuncias se refiere a comentarios racistas dirigidos a musulmanes y que fueron permitidos en la plataforma, afirma el reportero, al ser dirigidos a musulmanes inmigrantes y no solo a musulmanes.

Richard Allan, vicepresidente de políticas públicas de Facebook, ha salido al paso de las revelaciones reconociendo, en los casos más evidentes, el error de la compañía y apuntando a una investigación para depurar responsabilidades.

Asimismo, con respecto a los comentarios, Allan destaca la delgada línea que separa lo correcto de lo incorrecto en cuestiones sensibles como la inmigración.

“Está claro que algunas de las cosas que se muestran en el programa no reflejan las políticas de Facebook y se quedan cortas con respecto a los altos estándares que esperamos”, afirma en un comunicado a Business Insider.

“Nos tomamos muy en serio estos errores en nuestros procesos de entrenamiento y estamos agradecidos a los periodistas que lo han sacado a relucir. Siempre que hemos sabido de errores hemos tomado acción inmediatamente. Estamos ofreciendo formación adicional y trabajamos para entender exactamente qué ha pasado para poder rectificarlo”, concluye.

Te recomendamos

Energy Sistem

School

Podcast

BTMB18

Compartir