líderes en noticias de marketing, publicidad y marcas

Mark Read, CEO de WPP, sufre un intento de estafa mediante deepfake

Mark Read, CEO de WPP, víctima de una estafa de deepfake (le clonaron incluso la voz)

Helen Bustos

Escrito por Helen Bustos

"Sólo porque la cuenta tenga mi foto no significa que sea yo", decía Read en el correo electrónico dirigido a su personal.

Mark Read, CEO de WPP, la principal agencia publicitaria a nivel mundial, se ha visto envuelto en un sofisticado intento de estafa mediante la tecnología deepfake. Esta estafa implicó la reproducción artificial de su voz y el uso de su imagen. Mark Read, describió la trama en un reciente correo electrónico que dirigió al personal de la corporación, advirtiendo a los empleados sobre posibles llamadas que pudieran aparentar ser de altos directivos.

WPP es una empresa que cotiza en bolsa con una capitalización bursátil de unos 11.300 millones de dólares, y, como otras empresas, está expuesta a ciberataques cada vez más profesionales y difíciles de detectar. Como por ejemplo, sitios web falsos que usan su nombre de marca.

Así se llevó a cabo el intento de estafa

Los estafadores crearon una cuenta de WhatsApp utilizando la imagen pública de Read y la emplearon para organizar una reunión en Microsoft Teams que simulaba involucrar, tanto a él como a otro ejecutivo de alto rango de WPP, según se detalla en el correo electrónico obtenido por The Guardian. Durante la reunión virtual, los impostores utilizaron una réplica de la voz del ejecutivo y reprodujeron vídeos de YouTube que aparentemente representaban a ambos. Además, se hicieron pasar por Read mediante la ventana de chat de la reunión. Aunque la estafa no logró su objetivo, estaba dirigida a un «jefe de agencia», solicitándole la creación de una nueva empresa. Todo ello en un intento por obtener dinero y datos personales.

Un portavoz de WPP confirmó en un comunicado que el intento de phishing no dio fruto: «Gracias a la vigilancia de nuestro personal, incluido el ejecutivo afectado, se evitó el incidente». WPP no respondió a las preguntas sobre cuándo se produjo el ataque ni qué ejecutivos, además de Mark Read, estuvieron implicados.

Estafas a través de deepfake: cada vez más de moda

A parte del la clonación de voz a través de lo que parecía ser una IA generativa, la estafa incluía técnicas más simples como el uso de imágenes públicas. La imagen de Read se tomó de internet y se utilizó como foto de contacto. El ataque es representativo de las muchas herramientas que los estafadores tienen ahora a su disposición para imitar comunicaciones corporativas legítimas y finalmente a sus ejecutivos.

«Hemos observado una sofisticación cada vez mayor en los ciberataques a nuestros colegas, y en los dirigidos a altos dirigentes en particular», afirma Read en el correo electrónico.

El correo electrónico de Read enumera una serie de puntos a los que hay que prestar atención como señales de alarma. Entre ellos las solicitudes de pasaportes, las transferencias de dinero y cualquier mención a una «adquisición, transacción o pago secreto que nadie más conozca». «Sólo porque la cuenta tenga mi foto no significa que sea yo», decía Read en el correo.

En los últimos años, la tecnología de deepfake de audio de bajo coste ha comenzado a estar al alcance de todos y cada vez es más convincente. Algunos modelos de IA pueden generar imitaciones realistas de la voz de una persona utilizando solo unos minutos de audio. Esto, por ejemplo, es fácilmente obtenible de personajes públicos debido a su exposición mediática y permite a los estafadores crear grabaciones manipuladas de casi cualquier persona.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

Marketing Flúor vuelve a Pontevedra como un escaparate para la industria creativa de GaliciaAnteriorSigueintePresidentex evidencia el rechazo del consumidor al "postureo" publicitario en sus 'Informex Informales'

Contenido patrocinado