Ryan Holmes CEO Hootsuite

¿Es la "validación de contenidos" el nuevo boom tecnológico?

Si no has visto el vídeo falso de Barack Obama llamado “idiota” a Donald Trump, merece la pena que lo veas. Quizá la voz no es igual que la del ex presidente, pero el vídeo, que el equipo de BuzzFeed tardó 56 horas en crear, ilustra perfectamente la incipiente amenaza de los Deepfakes, es decir, vídeos alterados digitalmente que pueden hacer que cualquier persona diga cualquier cosa.

La tecnología Deepfake se está empezando a utilizar cada vez más (y de forma muy polémica) para insertar la cara de famosos en contenidos pornográficos. Pero aparte de esto, no es difícil ver lo peligrosa que puede llegar a ser en política. Poner declaraciones falsas en boca de los políticos puede provocar un problema internacional muy fácilmente, hacer que cunda el pánico en la bolsa o que incluso estalle una guerra. No hablamos de ciencia ficción; la amenaza es tan real que DARPA, la agencia de defensa estadounidense responsable de los avances en tecnología militar, ha creado un departamento para detectar, casi de manera forense, estas falsificaciones en medios de comunicación.

Por supuesto, estos vídeos no son la única amenaza si hablamos de las famosas fake news. Las elecciones a la presidencia de 2016 en Estados Unidos  mostraron perfectamente el poder que tienen los titulares y las noticias falsas , difundidas por las redes sociales, para influir en el curso de los acontecimientos mundiales. Desde entonces, nos hemos acostumbrado a cuestionar y, en ocasiones, a caer en la trampa de historias dudosas que se difunden a través de los medios (no ayuda mucho que el periodismo esté manipulado por algunos políticos que generan este tipo de mensajes.) Al final, no sabemos en quién y en qué confiar, si es que podemos hacerlo.

Las redes sociales están justo en el centro de estos asuntos Hoy en día la gente se informa a través de estos canales y, tristemente, son uno de los lugares más vulnerables a la manipulación. Personalmente me preocupa mucho, ya que mi carrera se ha desarrollado alrededor del Social Media. Confío mucho en el poder de estos canales para crear conexión y generar diálogo. Redes como Facebook y Twitter se han convertido en una parte esencial de Internet y no van a desaparecer. Pero la difusión de contenidos falsos, no sólo teorías de conspiración absurdas y fáciles de descartar, sino vídeos convincentes que hacen que incluso los expertos tengan que revisarlo dos veces, es una amenaza real y creciente.

Teniendo esto en cuenta, ¿cómo podemos restablecer la confianza en los contenidos online? Para mí, el camino a seguir no es sólo ajustar los algoritmos o crear nuevas normas. Es un  reto mucho más complejo. En el fondo, hablamos de la confianza en lo que vemos y oímos en internet, de confiar en los datos sin elaborar que influyen en las decisiones de los individuos, de las empresas y de países enteros. El tiempo para encontrar una solución se ha acabado. En cambio, es posible que podamos hablar de la próxima industria en crecimiento de la era digital: la validación de contenidos.

Crecimiento en la industria de la validación de contenidos

Es interesante  ver la actividad que se está empezando a generar en este ámbito a medida que se acelera la carrera entre los que falsifican y los que luchan contra ello. En particular, el fenómeno de los Deepfake ha dado lugar a una creciente respuesta tecnológica, definida recientemente por Kaveh Waddell de Axios. La startup Trupic, que acaba de captar más de 10 millones de dólares en financiación de inversores como Reuters, ha establecido como objetivo fijarse en detalles como el reflejo de los ojos y la forma en que está colocado el pelo, que son casi imposibles de falsificar a través de los miles de fotogramas de un vídeo. Por su parte, Gfycat, la plataforma de gif-hosting, utiliza herramientas de IA que comprueban si hay anomalías para identificar y eliminar los vídeos ofensivos que esté alojados en su web.

En el sector académico y de investigación, científicos de Los Alamos están desarrollando algoritmos que buscan elementos visuales repetidos, un signo claro de manipulación en vídeo, mientras que los investigadores de SUNY Albany han desarrollado un sistema que monitorea los patrones de parpadeo de la imagen. DARPA y su equipo de análisis de medios, mientras tanto, buscan errores en la iluminación de las caras utilizando la IA.

Sin embargo, lo más complicado es reconocer las noticias falsas basadas en texto, el contenido más fácil de crear y el que más probabilidades tiene de usarse en nuestras redes sociales. Se necesitan pocos trucos técnicos en este casoí, sólo nuestra antigua habilidad para contar mentiras convincentes y usar el lenguaje para manipular las emociones de los usuarios. Tal vez por esta razón las historias falsas consiguen evitar la detección automática y a menudo es necesaria la intervención humana directa para descubrirlas.

Facebook, a pesar de su sofisticación técnica, ha recurrido a un auténtico ejército de personas datos para examinar el contenido de su plataforma después de Cambridge Analytica y las crisis electorales de 2016. Los mensajes marcados como falsos por los usuarios (o por el machine learning) se envían a uno de los 25 colaboradores de verificación de datos que Facebook tiene en 14 países, incluidos  Associated Press, PolitiFact y Snopes. El contenido que se considera falso está, a su vez, penalizado por Facebook, lo que lo empuja a un nivel más bajo en las noticias, evidentemente reduciendo su visibilidad futura en más del 80%.

Esta práctica, con un enfoque incompleto, deja mucho que desear: los estándares varían según la organización que verifica los datos, e incluso las historias claramente falsas pueden volverse virales antes de que Facebook tenga la oportunidad de penalizarlas. Por no mencionar que la gran cantidad de contenido que se genera frustra la intervención humana: cada 60 segundos se publican de forma estimada en Facebook 510.000 comentarios y se suben 136.000 fotos. No es de extrañar que no haya suficientes verificadores de datos para revisar todas las denuncias falsas.

Entonces, ¿cuál es el siguiente paso para la validación de contenidos?

¿Existe una forma mejor de abordar este problema? Tiene que haberla. ¿Será fácil? No. Y aquí es donde el ingenio y la oportunidad de mercado deben ir de la mano. Por ejemplo, ¿podemos encontrar una manera de aprovechar la autoridad de dominio (las puntuaciones de los motores de búsqueda sirven como un proxy aproximado para la "confiabilidad") en la verificación del contenido compartido en las redes sociales? (Un medio como The New York Times, por ejemplo, que tiene una autoridad de dominio de 99/100, se clasificaría como de mucha confianza). Este enfoque es escalable pero en realidad dista mucho de ser perfecto, ya que la autoridad de dominio está arraigada en gran medida en los vínculos de enlace, en lugar de la corrección objetiva.

¿O podríamos seguir el protocolo HTTPS? El símbolo del candado junto a la barra de direcciones de nuestros navegadores ofrece la a de que los sitios que estamos visitando, como los bancos o las tiendas online, son seguros y que nuestros datos confidenciales están a salvo. No es difícil imaginar lo útil que sería este concepto en el mundo del contenido: Me estoy imaginando un pequeño e ingenioso signo en vídeos, fotos e historias que hayan sido clasificadas como verdaderas y auténticas, no falsas. El reto es que HTTPS es simplemente una garantía de encriptación. Garantizar la exactitud de los datos es una cuestión más espinosa y mucho más compleja desde un punto de vista técnico y humano.

¿Y el blockchain? La idea de un libro de contabilidad fijo almacenado en la nube, que rastree el origen de todo el contenido hasta su fuente, suena muy atractivo. Los usuarios podrían comparar versiones de vídeos o imágenes para saber si hay modificaciones, y las marcas de agua servirían como un distintivo de calidad (de hecho, esta es en gran medida la idea detrás de la aplicación Truepic). Pero aquí, también, la cuestión es si esto puede aplicarse al contenido basado en texto, donde la intención de engañar deja menos rastros técnicos.

Por último, la validación de contenido integral es mucho más fácil de imaginar que de llevar a cabo en la vida real. Antes solíamos tener un sistema bastante bueno para esto: se llamaba periodismo... A pesar de todas sus limitaciones y defectos, los medios de comunicación contaban con ciertos estándares de precisión, y los periodistas dedicaron sus vidas a defenderlos. Sin embargo, con la llegada de Internet y las redes sociales, esos guardianes tradicionales hace tiempo que han desaparecido. Ahora cualquiera puede crear noticias. Cualquiera puede difundir información falsa. Cualquiera puede expresar sus opiniones sobre lo que cree que es real y verdadero.

Pero aquí está la razón por la que aún tengo esperanza: la columna vertebral de la economía digital que, cada vez más, es la única economía, es el intercambio de información. Cuando esa información pierde su validez, tenemos un gran problema... pero también una gran oportunidad de mercado.

Ryan Holmes - CEO Hootsuite

Te recomendamos

ATRESMEDIA

FIESTAMKD

Yoigo

Podcast

A3media

Compartir