líderes en noticias de marketing, publicidad y marcas

Cambiar el algoritmo de Facebook no merma necesariamente la polarización

El algoritmo de Facebook no es tan pérfido como lo pintan: la polarización no es culpa suya (no del todo)

Esther Lastra

Escrito por Esther Lastra

Cuatro nuevas investigaciones sugieren que la culpa de la polarización no la tienen (no del todo) los vilipendiados algoritmos de Facebook.

Las apps de Meta en general y Facebook en particular han sido asaeteados a críticas en los últimos años por dar supuestamente alas hasta el infinito y más allá a la polarización política. Sin embargo, cuatro investigaciones de nueva hornada sugieren que la culpa de la polarización no la tienen (al menos no del todo) los vilipendiados algoritmos de Facebook y compañía.

En cuatro estudios publicados ayer por Science y Nature investigadores adscritos a diferentes instituciones académicas (la Universidad de Princeton, Darmouth College y la Universidad de Texas, entre otras) colaboraron con Meta para determinar el impacto de las redes sociales en la democracia y en las elecciones presidenciales celebradas al otro lado del charco en 2020.

Los autores, que tuvieron acceso a datos específicos de Facebook e Instagram para emprender su investigación, concluyen los usuarios se zambullen habitualmente en las procelosas aguas de las redes sociales para buscar información que está en sintonía con sus propias creencias. En este sentido, aquellos usuarios que desean vivir atrapados en cámaras de eco buscan activamente noticias alineadas con sus propias creencias, aunque los algoritmos de recomendación de Facebook e Instagram les confrontan también con este tipo de noticias.

En uno de los informes publicados en Science los investigadores estudiaron qué sucedía cuando los usuarios veían contenidos en Facebook e Instagram por orden cronológico (en lugar de en «feeds» espoleados por algoritmos).

Acceder a los contenidos de Facebook e Instagram por orden cronológico durante un periodo de tres meses no alteró de manera significativa los niveles de polarización, según los investigadores.

En un artículo publicado en Science los investigadores apuntaron que Facebook es una plataforma notablemente segregada en el plano ideológico (mucho más que los sugieren informes previos con el foco puesto en el consumo de noticias).

Aunque Meta se involucró en los investigadores, los investigadores subrayan que la compañía en ningún momento les pagó por su trabajo y tuvieron, por ende, total libertad para publicar sus conclusiones sin interferencias por parte de la matriz de Facebook.

Un estudio publicado en Nature analizó el concepto de cámara de eco en las redes sociales y para ello puso bajo la lupa a más de 20.000 usuarios estadounidense de Facebook durante un periodo de tres meses antes y después de las elecciones presidenciales de Estados Unidos en 2020.

Salir de las cámaras de eco de las redes sociales no hace necesariamente más diversos los puntos de vista de los usuarios

Los autores determinaron que los usuarios de Facebook acceden a aproximadamente la mitad del contenido en esta red social a través de personas, páginas y grupos que comparten sus creencias. Y cuando se altera el tipo de contenido con el que habitualmente son confrontados en esta red social, los usuarios no cambian sus puntos de vista y no son dueños por ello de creencias más diversas.

«Estos resultados no son consistentes con el miedo que hay normalmente solapado a las cámaras de eco de las redes sociales», subrayan los investigadores. No obstante, «los datos indican claramente que los usuarios de Facebook están mucho más predispuestos a contemplar contenidos de fuentes con sus mismos puntos de vista que contenidos emanados de fuentes con opiniones divergentes de las suyas propias», apostillan.

Es evidente que en Facebook existe un problema de polarización, admiten los investigadores, pero no está tan claro que los algoritmos de la red social sean directamente responsables de ese problema.

Uno de los informes de Science concluyó que en lo referente al consumo de noticas tanto los algoritmos como la amplificación social desempeñan un rol significativo a la hora de cavar trincheras entre demócratas y republicanos y alentar la segregación ideológica.

Así y todo, lo cierto es que las fuentes que en Facebook favorecen el parecer de los votantes conservadores son más prevalentes que aquellas que amparan la ideología liberal. Y la mayor parte de la desinformación echa anclas en fuentes de ideología conservadora en esa red social.

En términos generales las noticias que los algoritmos muestran a los usuarios de ideología conservadora son muy diferentes de las mostradas los conservadores, que son también más políticamente homogéneos.

Después de ser atacado duramente por diseminar desinformación y alentar la polarización en sus dominios, Facebook trató de hacer propósito de enmienda en los últimos comicios presidenciales celebrados allende los mares, los correspondientes al año 2020.

Y parece que de alguna manera lo ha logrado a tenor de los resultados de las investigaciones publicadas por Science y Nature. Tales investigaciones demuestran que «existe poca evidencia de que las características de las plataformas de Meta puedan alentar por sí solas la polarización», enfatiza Nick Clegg, presidente de asuntos globales de la matriz de Facebook en un post publicado ayer en el blog corporativo de Meta.

 

"Dale a tu ron la cola que se merece": Pepsi mantiene la guerra con Coca-Cola, ahora por el ron-colaAnteriorSigueinteNH supera las cifras del 2019 con unos ingresos de 1.027 millones y un beneficio de 45 millones

Contenido patrocinado