líderes en noticias de marketing, publicidad y marcas

Esta IA de Microsoft es tan convincente que no se hará pública (por ahora)

Esta IA para generar vídeos es tan buena (y perturbadora) que Microsoft la guardará por ahora bajo llave

Esther Lastra

Escrito por Esther Lastra

Los resultados puestos sobre la mesa por VASA-1 son tan excepcionales (y potencialmente peligrosos) que Microsoft ha decidido no hacerla accesible a todo el público por ahora.

La inteligencia artificial (IA) avanza a pasos agigantados y cada nuevo progreso que esta tecnología se saca de la chistera parece hacer palidecer al anterior. Que se lo digan, si no, a Microsoft, cuyo nuevo modelo de IA, VASA-1, se ufana de alumbrar vídeos perturbadoramente realistas de personas de carne y hueso a partir de una simple foto. De hecho, los resultados puestos sobre la mesa por es VASA-1 son tan excepcionales (y potencialmente peligrosos) que la empresa de Redmond ha decidido no hacer esta herramienta accesible a todo el público por ahora.

VASA-1 genera vídeos de personas hablando apoyándose simplemente en una imagen fija, un archivo de audio y un pequeño fragmento de texto. Y aunque todo el contenido que nace de sus entrañas es «fake», su falsedad no es en modo alguno aparente y parece a ojos del usuario tan real como absolutamente creíble.

El tipo de contenido generado por VASA-1 es categorizado por la Comisión Federal de Comercio (FTC) como potencialmente peligroso debido a los fraudes que hay potencialmente parapetados tras los «deepfakes». Microsoft es plenamente consciente de las preocupaciones en el plano ético que plantea su nueva herramienta y por eso ha tomado la determinación de no hacerla pública para que no se haga un uso espurio de ella y se emplee potencialmente para suplantar la identidad de personas de carne y hueso.

Si no visualizas correctamente el vídeo embedded, haz clic aquí

VASA-1 es para Microsoft un vehículo para investigar la creación de personajes virtuales de naturaleza interactiva. «Nuestra investigación está centrada en el desarrollo de habilidades visuales y afectivas para los avatares virtuales generados con IA y prevé utilizarse en aplicaciones que hagan un uso positivo de esta tecnología. No se trata de una tecnología concebida para engañar o confundir a la gente», recalcan los desarrolladores de Microsoft.

Pese a los riesgos solapados a VASA-1, Microsoft ve mucho potencial a largo plazo en esta herramienta. «Esta tecnología promete enriquecer la comunicación digital, mejorar la accesibilidad para aquellas personas con discapacidad visual, transformar la educación, y proporcionar soporte terapéutico en el ramo de la salud», subraya la multinacional estadounidense.

Una tecnología tan prometedora como potencialmente peligrosa

Microsoft admite en todo caso que su tecnología podría ser eventualmente utilizada para imitar a seres humanos de carne y hueso, pero se opone radicalmente a este tipo de uso y desea, de hecho, utilizar esta tecnología para mejorar la detección de «deepfakes».

El hecho de que Microsoft haya decidido echar el freno de manera voluntaria a su nueva y prometedora herramienta de IA no convence en todo caso a algunos (que ponen en duda la eficacia de la autorregulación). Es, por ejemplo, el caso de Kevin Surace, experto en IA y presidente de Token, una empresa de autentificación biométrica. «Microsoft y otras empresas se están conteniendo hasta la fecha en lo que a la IA se refiere hasta que se clarifique los problemas que desde el punto de vista de la protección de datos plantea esta tecnología. Pero, ¿cómo se regula a quien usa esta tecnología por las razones adecuadas? La regulación será simplemente imposible porque en el ramo de la IA imperan hoy por hoy las herramientas de código abierto», subraya Surace en declaraciones a The Register.

Diferentes países a lo largo y ancho de todo el globo están tratando de responder al auge de las personas fabricadas con IA mediante distintas regulaciones. En Reino Unido, por ejemplo, es una ofensa de naturaleza criminal crear «deepfakes» sexualmente explícitos sin el consentimiento del usuario. Y el pasado mes de enero Estados Unidos introdujo una nueva ley que permite a las víctimas de «deepfakes» no consensuados presentar demandas civiles.

En una comparecencia en el Senado de Estados Unido el pasado 16 de abril Rijul Gupta, CEO de DeepMedia, una empresa enfocada a la detección de «deepfakes», puso de relieve el reverso más tenebroso para la IA cuando se utiliza para suplantar la identidad de personas de carne y hueso. De acuerdo con Gupta, los «deepfakes» socavan potencialmente la confianza de los ciudadanos y pueden llegar a dinamitar los cimientos de la democracia.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

Por qué Netflix y compañía están "amordazando" las bandas sonoras de las series más icónicasAnteriorSigueinte13 películas y series que quizá no sabías que están basadas en libros (y dónde verlas)

Contenido patrocinado