Social Media Marketing

¿Podemos confiar en las noticias de Facebook? Según sus trabajadores no

facebook 626Con miles de millones de usuarios en todo el mundo, Facebook se ha convertido en la red social más popular del planeta no solo en su negocio de la comunicación, el entretenimiento o la publicidad sino también en el ámbito informativo.

Y es que son muchos los usuarios que utilizan la plataforma como principal método para estar al día de lo que ocurre en el mundo confiando plenamente en los algoritmos de la compañía que, en teoría, muestran los hechos más importantes, de los que más se habla y que los lectores deben saber.

Sin embargo, podía no ser oro todo lo que reluce y es que, detrás de este algoritmo se encuentra un equipo de curadores de contenidos que se encargan de titular las noticias y crear un pequeño resumen así como el link al sitio web para mostrárselo a los usuarios.

Hasta aquí todo bien, pero la denuncia de algunos ex trabajadores de la compañía sobre la supuesta manipulación del newsfeed de la red social, podría colocar la sombra de la duda sobre las prácticas quizá poco éticas de Facebook.

En declaraciones a Gizmodo, un antiguo curador de la compañía asegura que la supresión de noticias sobre la política conservadora estadounidense aunque fuesen temas populares y el algoritmo los reconociese como tal, era algo habitual en la redacción.

Pero también se encargaban de incluir en la lista mostrada a los usuarios otros temas que, a pesar de no encontrarse entre los “trending”, la compañía consideraba importantes así como eliminar todas aquellas noticias que hablasen de Facebook.

De esta manera, la sección de noticias de la red social operaba del mismo modo que cualquier otro medio, imponiendo unas líneas editoriales de la compañía, algo que es totalmente aceptable si no fuera porque la propia Facebook se encargó de hacer alarde de que esta lista reflejaba “los temas que se han vuelto populares en la red”.

“Dependiendo de quién estuviese al mando, las noticias eran suprimidas o destacadas”, explica uno de los curadores de contenido. Así, noticias sobre grupos políticos conservadores, medios de comunicación de derechas y personalidades abiertamente conservadoras desaparecían de los temas más populares.

Sin embargo, Gizmodo asegura que, no hay evidencias de que Facebook supiera este tipo de prácticas de sus trabajadores a pesar de ser habituales en las rutinas laborales.

Aunque no es del todo santo pues, los jefes instruían a sus trabajadores en la manipulación de las historias de manera que las noticias que no fuesen incluidas de manera orgánica por el algoritmo en la lista trending y se consideraban relevantes, eran incluidas con la llamada “injection tool” de la manera artificial.

Es el caso de aquellos hechos que ocupaban portadas en medios relevantes como CNN , The New York Times o BBC o eran cubiertos por una gran cantidad de ellos como los ataques a Charlie Hebdo y la desaparición del vuelo MH370 de Malaysia Airlines.

Pero también otras noticias de especial importancia como las relacionadas con la guerra de Siria o el movimiento “Black Lives Matter” fueron objeto de esta “manipulación” al integrarlos entre los temas más populares a pesar de no serlo y que los trabajadores justifican asegurando que son temas que si no están presentes en Facebook dañaría su imagen.

Lo que quizá es más preocupante es el hecho de que, en este empeño por preservar su imagen de cara a los usuarios, se ordenaba expresamente a los trabajadores eliminar de la lista cualquier noticia que hablase de la compañía.

Sin embargo, a pesar d estas acusaciones, los ex curadores reconocen que los algoritmos que rigen el sistema de la compañía cambian constantemente por lo que sería complicado saber si estas prácticas se siguen produciendo.

Tras la publicación de esta información, Facebook se ha querido defender a través de un comunicado en el que asegura que se toma las acusaciones muy en serio y aclara:

“Los Trending Topics muestran los temas y hashtags sobre los que se está hablando en Facebook. Existen estrictas pautas en nuestros equipos para asegurar la neutralidad y consistencia que no permiten ni suprimir perspectivas políticas ni priorizar un punto de vista sobre otro”.

Te recomendamos

México

2boca2

podcast

A3media

Compartir