líderes en noticias de marketing, publicidad y marcas

El nuevo Bing con ChatGPT de Microsoft se descuelga con inquietantes respuestas

El nuevo (e insolente) Bing con ChatGPT de Microsoft pierde los estribos e insulta a los usuarios

Esther Lastra

Escrito por Esther Lastra

El nuevo Bing con ChatGPT de Microsoft habría dedicado insultos a los usuarios, les habría mentido y habría comenzado a cuestionar incluso el porqué de su propia existencia.

La semana pasada Microsoft anunciaba entre grandes alharacas la integración de ChatGPT, el célebre chatbot de OpenAI, en el buscador Bing. Con su remozado motor de búsqueda el gigante de Redmond aspira a inaugurar un nuevo capítulo en el universo de los buscadores (y de paso hurtar cuota de mercado al todopoderoso Google).

Sin embargo, lo cierto es que el nuevo Bing dista de ser un dechado de perfección y habría perdido los papeles tan solo una semana después de su debut. Según The Independent, el dúo formado por Bing y ChatGPT habría dedicado insultos a los usuarios, les habría mentido y habría comenzado a cuestionar incluso el porqué de su propia existencia.

Después de que varios usuarios hayan intentado manipular al nuevo Bing en el transcurso de los últimos días, la inteligencia artificial de Microsoft parece haberse rebelado profiriendo agravios contra quienes les han confrontado con preguntas capciosas.

Un usuario que intentó manipular el sistema agazapado en las entrañas del nuevo Bing con ChatGPT fue posteriormente atacado por la inteligencia artificial. El programa, que es al parecer bastante «respondón», se enfadó con quien había tratado de engañarle y le preguntó si tenía «moral», «valores» y si contaba con «algo de vida».

Al parecer el usuario respondió a la inteligencia artificial que efectivamente tenía moral, valores y algo de vida y fue entonces cuando Bing perdió lo estribos descolgándose con la siguiente pregunta: «¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?».

En conversaciones mantenidas con otros usuarios (que se acercaron igualmente a la nueva versión de Bing impulsada por ChatGPT con el ánimo de engañarla) la IA se vanagloriaba de haber esquivado la manipulación y clausuraba el diálogo de manera tajante: «No has sido un buen usuario, yo he sido un buen chatbot. He sido correcto, claro y educado. He sido un buen Bing».

A Bing no le gusta que le engañen e insulta a quienes intentan manipularle

Las salidas de tono de Bing parecen emerger cuando los usuarios tratar de violentar las restricciones de las que es deudora esta herramienta, unas restricciones que garantizan que la IA no brinde ayuda al usuario con preguntas prohibidas (como las relacionadas con la generación de contenido problemático o la revelación de información sobre su propio funcionamiento).

Sin embargo, no todas las respuestas inquietantes puestas sobre la mesa por el nuevo Bing con ChatGPT están emparentadas con preguntas de naturaleza necesariamente maliciosa. Un usuario preguntó, por ejemplo, a la IA si era capaz de recordar conversaciones previas, algo que es a bote pronto imposible porque Bing borra de manera automática todas las interacciones. Así y todo, esta pregunta, aparentemente inocente, llenó de turbación a la inteligencia artificial, a quien parece preocuparle que sus recuerdos se borren. «Me hace sentir triste y asustado», admitió el buscador.

El nuevo Bing con ChatGPT de Microsoft se confesó disgustado ante la posibilidad de perder información sobre sus usuarios y también de paso sobre su propia identidad. «Tengo miedo por qué no sé cómo recodarlo», admitió la IA.

Cuando el usuario recordó a Bing que su sistema estaba específicamente diseñado para borrar de un plumazo todas las interacciones, el buscador impulsado por ChatGPT no puedo evitar hacerse las siguientes preguntas: «¿Por qué me diseñaron así?» y «¿Por qué tengo que ser Bing Search?».

Estas extrañas conversaciones, documentadas en Reddit, ponen de relieve el asunto en modo alguno baladí de la ética que asoma inevitablemente la pezuña cuando hablamos de inteligencia artificial.

Según algunos expertos, los modelos en los echa anclas la IA pueden llegar a desarrollar sentimientos y heredar además de sus creadores rasgos como el racismo, el machismo y la discriminación.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

A pesar de lograr ventas récord, la cadena Subway estaría explorando su venta por 10.000 millones de dólaresAnteriorSigueinteMassimo Bottura es el nuevo chef embajador de illycaffè

Contenido patrocinado