líderes en noticias de marketing, publicidad y marcas

Los rostros generados por IA dan el pego y son ya más confiables que los reales

Digital MarketingLos rostros generados por IA son más confiables que los rostros humanos

Los rostros generados por IA dan gato por liebre a la gente

Los rostros generados por IA dan el pego y son ya más confiables que los reales

Esther Lastra

Escrito por Esther Lastra

Confrontada con rostros generados por IA y con rostros de personas de carne y hueso, la gente confía más en los primeros.

Si nos preguntaran por nuestra habilidad a la hora de distinguir rostros de carne y hueso de aquellos rostros que son «hijos» de la inteligencia artificial, probablemente la mayoría nos ufanaríamos de poder distinguir unos y otros sin ningún género de duda. Sin embargo, no solo no somos demasiado buenos diferenciando los rostros reales de los rostros «fake» sino que estamos también más predispuestos a confiar más en los segundos que en los primeros.

Así se colige al menos de un estudio publicado en Proceedings of the National Academy of Sciences que lleva la rúbrica de Hany Farid, profesor de la Universidad de California, y Sophie J. Nightingale, profesora de la Universidad de Lancaster.

Farid lleva investigando las imágenes generadas por IA (y la manera en que la gente las distingue de las reales) desde hace años. Sin embargo, el fascinante universo de las imágenes de naturaleza sintética ha protagonizado un salto de gigante en los últimos años, tanto que los rostros reales son ya casi indistinguibles de los rostros «fake», asegura Farid.

Los problemas emanados de la proliferación de rostros tan extraordinariamente realistas generados por la IA son muchos y muy variados. «Los perfiles online de naturaleza fraudulenta son un buen ejemplo. También las fotos fraudulentas que abren paso en los pasaportes. Las imágenes fijas se prestan a un buen número de usos nefarios. Pero donde las cosas van realmente a ponerse complicadas es el universo del vídeo y el audio», advierte Farid.

Las imágenes generadas por IA logran dar gato por liebre a la gente

En vista de la trepidante velocidad a la que avanza la generación de imágenes apoyada en la IA Farid y Nightingale han querido explorar en su investigación si las imágenes «fake» pueden realmente dar gato por liebre a la gente y convencerla de su autenticidad.

Su informe incluye tres experimentos con el último objetivo de dilucidar si la gente puede realmente discernir un rostro real de uno sintético creado por la red generativa StyleGAN2 de Nvidia.

Tras confrontar a los participantes con más de 800 imágenes de rostros reales y «fake», hubo solo un 48,2% de aciertos.

A continuación, en un segundo experimento los investigadores brindaron a los participantes una serie de claves para identificar rostros generados por IA y se tomaron además la molestia de proporcionarles algo de «feedback», pero ello no incrementó de manera drástica su habilidad distinguiendo rostros reales de rostros «fake». El porcentaje de aciertos de los participantes en este segundo experimento fue del 59%.

La dificultad de las personas diferenciando rostros reales de rostros falsos no resultó en modo alguno sorprendente para Farid y Nightingale. Lo que sí les asombró fue otro resultado. Y es que cuando los participantes tuvieron que valorar rostros reales y rostros generados por IA en base a su grado de confiabilidad, la gente consideró que los segundos eran un 7,7% más confiables que los primeros.

El aumento de los «superpoderes» desplegados por la IA hace aflorar problemas de naturaleza ética

«Nos sorprendió realmente este resultado porque nuestra motivación era hallar una ruta indirecta que mejorara la habilidad de la gente distinguiendo rostros reales de rostros generados ‘fake’ y pensamos que la confianza se erigiría en esa ruta indirecta«, explica Nightingale.

Para emprender experimentos de manera más controlada Farid y Nightingale se esforzaron en elegir rostros en los que las diferencias entre caras reales y caras «fake» fueran solo sutiles.

«Desde el punto de vista de los romances que se desarrollan al calor de la red de redes las imágenes sintéticas resultan perfectas y cumplen a la perfección su cometido», indica Nightingale. «En casos como la diseminación de noticias falsas en las redes sociales las imágenes generadas por la IA resultan también muy eficaces. La gente confía, al fin y al cabo, en tales imágenes y está, por ende, también muy predispuesta a compartir la información de allí brota», asevera.

A medida que avanza la tecnología relativa a la generación de imágenes sintéticas, emergen también más problemas de tipo ético y las empresas deberán dar respuesta de manera perentoria a tales problemas.

 

LLYC impulsa el primer asistente virtual en la historia de ARCOAnteriorSigueinte¿A qué marcas regalan más los oídos los influencers en Instagram, TikTok y YouTube?

Contenido patrocinado