Digital

Según desvela Kayvon Beykpour en el CES 2020

Twitter ya ha comenzado a experimentar con nuevas soluciones contra la toxicidad en su plataforma

Twitter busca fundamentalmente acabar con los contenidos ofensivos y abusivos, dando visibilidad y prioridad a aquellos otros que generan conversación y respetan sus normas

toxicidad twitter

Hablar de Twitter es hablar de una red social que apuesta por la libertad de expresión y facilita de hecho una plataforma inmejorable para expresarla abiertamente. Su popularidad es incuestionable, y ha alcanzado un grado de desarrollo muy elevado, aunque siempre es posible mejorar. Uno de los mayores desafíos que enfrenta Twitter ahora mismo, dentro del amparo y la defensa de esas libertades, es cómo reducir el abuso y el bullying en su plataforma.

La semana pasada, el director de producto de la compañía, Kayvon Beykpour, tuvo una interesante conversación con el editor en jefe de Wired, Nicholas Thompson, en el marco del Consumer Electronics Show (CES) de 2020 celebrado en Las Vegas. Entre otros aspectos, la conversación tocó el problema de la toxicidad en la plataforma, la salubridad de las conversaciones dentro de la misma, y otros temas relacionados. Durante la entrevista, también desvelaron algunos puntos concretos del trabajo de Twitter para aplacar el contenido abusivo y ofensivo.

Beykpour dejó claro que uno de los primeros pasos que ha dado la compañía para reducir esta toxicidad ha sido degradar las respuesta abusivas gracias al marchine learning. “Creo que cada vez se aprovecha más y mejor el aprendizaje automático para tratar de modelar los comportamientos que consideramos más óptimos para esa área. Entonces, por ejemplo, nos gustaría mostrar las respuestas que tienen más probabilidades de ser respondidas. Ese es un atributo para el que quizás desee optimizar, no el único atributo de ninguna manera. Deberá dejar de enfatizar las respuestas que probablemente se bloqueen o denuncien por abuso” aclaraba el ejecutivo.

twitter

Posteriormente añadió que Twitter ya optimiza la aparición de las respuestas que parecen más proclives a recibir todo tipo de interactuaciones y respuestas. Además, su algoritmo discrimina aquellas publicaciones que apenas tendrán repercusión y que actúan de forma abusiva. Por otro lado, cuando Thompson le preguntó sobre cómo planea la red social controlar sus sistemas para evitar incentivar la toxicidad, Beykpour puntualizó que la plataforma adiestra sus herramientas de IA de forma rigurosa, acorde a sus reglas y regulaciones.

Sobre este tema, Beykpour aclaró concretamente que “hoy en día, una de las maneras más prominentes en las que desarrollamos la IA para determinar la toxicidad es básicamente implementando una buena definición de cuáles son las reglas, para después completar con una inmensa cantidad de ejemplos sobre tuits que violan nuestras reglas”. Continuando con este mismo debate, también dijo que “básicamente, tratamos de predecir que tuits serán más peligrosos y podrían violar nuestras normas. Lo peor es que esta es solo una de las formas que la gente puede considerar abusivas, puesto que algo que puedas considerar abusivo en realidad no tiene por qué ir en contra de nuestras políticas internas”.

twitter-logo-siluetas

Esta última afirmación llama la atención, y probablemente constituya una de las mayores controversias que rodean Twitter. Los usuarios que son baneados, normalmente siguen protestando sobre la forma de moderación de Twitter, inadecuada para ellos a la hora de entender el contexto de los tuits que les causaron problemas. Para más inri, también hay cuentas que nunca son baneadas y no paran de subir contenido inapropiado.

Cuando Thompson preguntó también si Twitter tenía planeado marcar a los abusones de alguna forma, o establecer algún sistema que rechace la toxicidad para desmotivar a estos usuarios, Beykpour se atrevió a declarar que la compañía ya estaba experimentando con nuevas funcionalidades en una app todavía en fase beta. Entre ellas, por ejemplo, ocultar los likes y los retuits.

Otro desafío para Twitter lo supone el entrenamiento de su IA y sus equipos de moderación, que deben considerar el contexto social y político extremadamente cambiante en algunas geografías. Algunos de los términos o afirmaciones que estaban normalizados hace 3 años podrían ser abusivos en el contexto actual, por lo que la compañía necesita revisar y redefinir su política constantemente.

Te recomendamos

Carat

A3media

Outbrain

Podcast

Compartir