Social Media Marketing

Por qué puede ver abuso físico a niños en Facebook pero no un pezón

Aunque Facebook pueda presumir de ser el gigante imbatible del social media, su camino en este mundo no ha sido fácil, sobre todo en los últimos tiempos. Su enorme y rápido crecimiento le ha supuesto más de un dolo de cabeza especialmente en lo que a la gestión de sus contenidos respecta.

A lo largo de los últimos años, las críticas han sido frecuentes por parte de los usuarios al considerar algunos que la red social no ejercía control sobre contenidos sensibles, violentos o sexuales mientras que otros le acusaban de censura.

"Tenemos una muy diversa comunidad mundial y la gente va a tener ideas muy diferentes acerca de lo que está bien para compartir. No importa dónde se trace la línea que siempre van a haber algunas áreas grises. Por ejemplo, la línea entre la sátira y el humor y el contenido inadecuado a veces es muy gris", asegura Monika Bickert, jefe de gestión de política global de Facebook al diario The Guardian.

Pero, ¿cómo lidia la plataforma con la filtración de sus contenidos? ¿Cuáles son sus normas? ¿Cómo se mueve entre el filtrado y la censura?

Para conocer todas estas claves, el diario británico The Guardian ha realizado un intensivo análisis que nos acerca un poco más el complicado trabajo de los moderadores de la red social.

Así, con apenas 10 segundos para decidir sobre los contenidos, las pautas en ciertos casos están bien definidas pero, en otros, existe un enorme limbo que se resuelve según van apareciendo los casos.

Por ejemplo, en cuestiones de amaño de partidos o canibalismo, las directrices son claras pero en lo referente al llamado "revenge porn" el vacío regulatorio todavía es patente.

También existe enorme ambigüedad en cuanto a los comentarios que realizan los usuarios pues, si son violentos deben ser eliminados a menos, según la compañía, que no sean creíbles.

Y, ¿qué es algo no creíble para Facebook? Frases como "Voy a matar" o "Vete a la mierda y muérete" ya que, considera, que solo se trata de expresiones para mostrar frustración o enfado pero no son amenazas reales.

Tampoco los vídeos de muertes violentas son penalizados en la plataforma pues, aunque sí son clasificados como perturbadores y son ocultados a menores, cumplen una función de concienciación social.

Los más de 2.000 millones de usuarios de Facebook pueden también ver contenidos de abortos (si no se muestra desnudez), arte sexual (pero solo si es hecho a mano y no digitalmente); abusos físicos a niños o animales (siempre y cuando no haya sadismo) o autolesiones (para no castigar a personas en peligro).

Las reglas de Facebook en cuanto a su contenido no son, ni mucho menos, absolutas y los constantes cambios y matices en sus normas han acabado por mostrar una inconsistencia por parte de una compañía que no es capaz de gestionar el enorme volumen de contenidos que existe dentro de su territorio.

Y, de momento, parece que deberá seguir caminando por la cuerda floja. Eso sí, un mal paso podría precipitarle al vacío.

Te recomendamos

A3

ADN

Navidad

Recopilatorio

Enamorando

Compartir