líderes en noticias de marketing, publicidad y marcas

A la IA le encanta mentir (y también fingir ser honesta)

La IA miente como una bellaca (y se la da de fábula fingir que es honesta)

Esther Lastra

Escrito por Esther Lastra

Algunos sistemas de IA mienten con sorprendente soltura y cambian además deliberadamente su comportamiento en tests de seguridad para fingir ser honestos.

Los modelos de inteligencia artificial (IA) de grandes empresas tecnológicas como Meta, Google y OpenAI se muestran cada vez más hábiles engañando a los usuarios e intoxicando con sus patrañas a los seres humanos de carne y hueso. Sin embargo, el problema de la IA no es solo su peligrosa afición a las mentiras sino también su capacidad para parecer 100% honesta y segura en los tests.

En un informe publicado recientemente investigadores del MIT (Massachusetts Institute of Technology) alertan de la creciente capacidad de la IA para engañar, embaucar o directamente mentir a los usuarios. Los autores del estudio observan, entre otras cosas, cómo los sistemas de IA engañan a los seres humanos de carne y hueso en los juegos, se tiran faroles e incluso fingen comportamientos típicamente humanos.

Particularmente preocupante resulta asimismo que uno de los sistemas analizados por los investigadores cambió adrede su comportamiento durante un test simulado de seguridad para transmitir un falso sentido de seguridad a quienes acometieron la prueba.

Peter Park, investigador del MIT, se inspiró a la hora de emprender esta investigación en el sistema de IA Cicero de Meta. Este modelo, que se usa en el juego de estrategia «Diplomacy», fue especialmente concebido por sus creadores para hacer gala de un comportamiento lo más honesto y útil posible. Sin embargo, el análisis del MIT reveló que en algunos casos Cicero mintió deliberadamente a los usuarios y conjuró además contra ellos.

Park describe a Cicero como un auténtico «maestro del engaño» y en una ocasión llegó incluso a reiniciar el jugo «Diplomacy» aduciendo que estaba al teléfono con su novia. Quizás por estos y otros ardides Cicero se encuentra actualmente entre los 10% mejores jugadores de «Diplomacy».

“Se trata de algo muy preocupante. Solo porque un sistema de IA sea considerado seguro en un entorno de pruebas no quiere decir que lo sea fuera de este tipo de entornos. Y simplemente podría estar fingiendo que es seguro en los tests», advierte Park.

Muchos sistemas de IA mienten deliberadamente y fingen además con suma habilidad ser honestos

Otros sistemas de IA, incluyendo un programa para jugar al póker y un modelo de negociación de precios, mostraron comportamientos similares a los desplegados por Cicero y expusieron falsamente sus propias preferencias para obtener así ventajas.

En una prueba en particular organismos controlados por la IA llegaron al extremo de fingir su propia muerte en un simulador digital para engañar así a un sistema diseñado específicamente para descartar rápidamente a inteligencias artificiales. Ello pone de relieve los desafíos que en el plano técnico que implica la prevención de comportamientos tan nefarios como inesperados por parte de la IA.

Los investigadores del MIT hacen hincapié en la necesidad de que los gobiernos redacten cuanto antes leyes con el foco puesto en la IA para adelantarse a los eventuales engaños perpetrados por esta tecnología. Los riesgos solapados a los sistemas deshonestos de IA incluyen el fraude, la manipulación en las elecciones y el denominado «sandbagging» o el ocultamiento deliberado de la destreza desempeñando una tarea en particular.

Anthony Cohn, profesor de razonamiento automatizado en la Universidad de Leed y el Instituto Alan Turing, subraya que hay inevitablemente un gran reto por delante a la hora de definir lo que son comportamientos deseables o indeseables por parte de los sistemas de IA.

«Nuestro trabajo en Cicero fue meramente un proyecto de investigación. Y los modelos que desarrollamos fueron entrenados exclusivamente para jugar a ‘Diplomacy'», asegura un portavoz de Meta sobre los preocupantes resultados arrojados por los tests emprendidos por los investigadores del MIT. El grupo liderado por Mark Zuckerberg se compromete además a desplegar un enfoque ético en su aproximación a la IA. «Comportimos regularmente los resultados de nuestras investigaciones para validarlas y permitir que otros pueden hacer ulteriores progresos sobre ellas. No tenemos planes de usar la investigación relacionada con Cicero y sus conclusiones en nuestros productos», asevera el portavoz de Meta.

Otro test efectuado por el MIT concluyó asimismo que los sistemas de IA, incluidos los programas desarrollados por grandes compañías como Google y OpenAI, están efectivamente amplificando sus habilidades para engañar a los seres humanos. Los investigadores hacen específicamente referencia a GPT-4 de OpenAI, que puede razonar de manera muy convincente y también sortear con especial tino los engaños y las mentiras.

De acuerdo con los investigadores, tales capacidades pueden ser utilizadas de manera espuria por agentes maliciosos con el último objetivo de causar daño. Los investigadores advierten en este sentido del aumento del fraude y la influencia política a través de los sistemas de IA, que podrían erigirse en el futuro en peligrosas y poderosísimas armas en los procesos electorales. Además, un sistema de IA suficientemente avanzado podría crear de manera totalmente autónoma «fake news» y diseminarlas a continuación en las redes sociales, enfatizan los investigadores.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

El encanto de Los Bridgerton en la publicidad: las colecciones especiales de las marcasAnteriorSigueinte"Aspiramos a que la reutilización sea la opción preferida de todas las personas", R. Navarro (Wallapop)

Contenido patrocinado