Social Media Marketing

Las reglas que quieren que la moderación de contenido sea transparente

Una coalición crea unas políticas de moderación de contenido para las plataformas sociales

La coalición Santa Clara intenta dotar de una mayor transparencia a la moderación de contenido en las redes sociales, aunque solo son un primer paso para que la confianza vuelva al social media.

moderaciónLa falta de confianza en las redes sociales es un problema real. Y hay que admitir que se lo han ganado a pulso. Durante los últimos años, la moderación de contenido ha sido un problema en plataformas como Facebook, Twitter o YouTube. Acoso, mensajes de odio, cuentas falsas, influencias políticas, problemas con los algoritmos, censura… Todos estos ingredientes, junto a la falta de transparencia, se convierten en la gasolina ideal para la desconfianza.

La coalición sin ánimo de lucro Santa Clara Principles on Transparency and Accountability in Content Moderation quiere intentar sentar unos estándares mínimos sobre cómo se debe tratar e contenido de los usuarios en la red. El producto final proviene del trabajo de American Civil Liberties Union, Electronic Frontier Foundation, Center for Democracy & Technology y New America’s Open Technology Institute, junto a varios expertos independientes.

Todos ellos piden más visibilidad de la retirada de posts, un proceso de apelación más fuerte y un nuevo informe de transparencia sobre el número total de posts y cuentas que son suspendidas. Son cosas bastante sencillas de medir, pero ofrecen a los usuarios más información que la que plataformas como Facebook o YouTube ofrecen en la actualidad. El resultado es un enorme mapa de la moderación de contenidos, pero también un reto para las compañías.

Con las nuevas reglas de Santa Clara, cada vez que una cuenta o un contenido sea retirado, el usuario debe recibir una explicación detallada de las razones, con referencias explícitas a los términos violados. Además, el usuario puede presentar nuevas evidencias y apelar a un moderador humano. Las compañías también deberían presentar un informe, al estilo de las peticiones de datos por parte de los gobiernos, señalando el número total de cuentas retiradas así como su justificación.

“De lo que hablamos básicamente es de la regulación interna de estas plataformas”, expresa Kevin Bankston, director del Open Technology Institute, según TheVerge.com. “Nuestro objetivo es asegurarnos de que el procedimiento es todo lo abierto que puede ser”.

Por ahora, las compañías no han querido pronunciarse al respecto. Pero lo cierto es que están dando ya pasos bastante similares. Por ejemplo, Facebook publicó sus directrices de moderación por primera vez el mes pasado y creó su primer proceso de apelación formal para aquellos usuarios que consideran que la retirada de su contenido es fruto de un error.

Por su parte, YouTube está bastante cerca de cumplir con las reglas, incluso aunque suela pecar de falta de transparencia. La plataforma, perteneciente a Google, ya tiene un proceso de notificación y de apelación, y sus líneas de moderación han sido públicas desde el principio. En su informe del primer trimestre de 2018, revelado en abril, la plataforma afirmó haber eliminado 8,2 millones de vídeos durante el último cuarto de 2017. Pero sus notificaciones no son igual de detalladas cuando el contenido lo elimina un humano a cuando lo elimina un sistema automático (siendo este último responsable de la mayoría de los casos).

Aunque las reglas de Santa Clara no son perfectas y se dejan muchas cuestiones en el tintero, pues se limitan a los problemas con el procedimiento, se trataría de unos estándares mínimos. Según Jillian C. York, que ha trabajado en las reglas por EFF, se trata principalmente de arrojar más transparencia para que el problema pueda comenzar a solucionarse.

Te recomendamos

México

School

Podcast

Podcast

Compartir