líderes en noticias de marketing, publicidad y marcas

Cómo evitar que las redes sociales alimenten el odio tras un ataque terrorista

4 maneras de agilizar la eliminación de contenido extremista de las redes sociales tras un ataque

Las redes sociales se han convertido en los canales de difusión y viralización de contenido de odio, especialmente después de ataques terroristas. 4 propuestas para evitarlo.

odioEl último ataque terrorista que tuvo lugar en Nueva Zelanda, que dejó 50 muertos, ha vuelto a avivar el debate sobre el papel de las redes sociales como herramienta de difusión de mensajes de odio.

La utilización de Facebook como canal de retransmisión en directo de la masacre ha generado gran revuelo y, especialmente, el hecho de que este vídeo permaneció durante 6 horas en la red social y durante 3 horas en YouTube antes de ser retirado.

Y es que, ambas plataformas, junto con Twitter, Snapchat y Google, se han comprometido a retirar este tipo de contenidos de sus espacios en un periodo de 24 horas, tal y como establece el programa #NoPlace4Hate de la Comisión Europea. Un objetivo que, claramente, no se ha alcanzado.

Ante esta situación surge la pregunta de cómo pueden las plataformas eliminar de manera efectiva y en el menor tiempo posible el contenido de odio tras sucesos como el de Nueva Zelanda.
Bertie Vidgen, PhD Candidate del Alan Turing Institute, ofrece 4 propuestas para conseguirlo en The Conversation.

Ajustar la precisión de las herramientas de detección

Todos los sistemas de detección tienen un margen de error. Los diseñadores deben decidir qué falsos negativos y qué falsos positivos pasan o no el filtro. Los primeros son contenidos cuya publicación se permite aunque sean de odio, mientras los segundos son aquellos que se bloquean aunque no lo son.

Aunque la única opción para asegurar un entorno libre de odio es prohibir la publicación de contenido, es algo impensable. Por lo tanto, la mejor opción es ajustar la sensibilidad de las herramientas con el objetivo de detectar la mayor cantidad de mensajes de odio permitiendo a los usuarios seguir subiendo contenido.

Habilitar sistemas de eliminación más sencillos

Los sistemas de detección y eliminación de contenidos extremistas requieren procesos que implican desde la participación del usuario, encargado de dar parte de algún contenido peligroso hasta los moderadores, personas encargadas de valorar si este se ajusta o no a las políticas de las plataformas y cuyo trabajo depende de mantener una alta puntuación en la precisión de sus valoraciones.

En las primeras horas posteriores a un ataque, las plataformas deben introducir sistemas especiales que permitan eliminar el contenido inadecuado sin que los moderadores tengan miedo de recibir bajas calificaciones. Ejemplo de ello es la eliminación inmediata de los contenidos reportados para que ser revisados con posterioridad.

Limitar la capacidad de los usuarios para compartir el contenido

Aunque la habilidad de compartir contenidos es uno de los pilares de las redes sociales, la facilidad para hacerlo también conlleva riesgos como la difusión de contenidos extremistas y su viralización en tiempo récord.

Para evitar que se produzca, Vidgen apuesta por limitar el número de veces que los usuarios pueden compartir contenidos, algo que ya ha hecho WhatsApp.

Crear bases de datos compartidas de contenido

Todas las plataformas tienen políticas de contenidos muy similares por lo que, cuando un contenido es eliminado de una, es probable que también sea retirado de otra.

La creación de bases de datos compartidas agilizaría este proceso, haciendo desaparecer de manera automática el mismo contenido en distintas plataformas.

Internet es vital en la búsqueda del mejor producto y servicioAnteriorSigueinteEsculturas "invisibles" para visibilizar el problema de los jóvenes sin hogar

Noticias recomendadas