líderes en noticias de marketing, publicidad y marcas

Estofados caníbales y otras delicias: las recetas de la IA de un supermercado

Un supermercado pone a la IA a cocinar y esta se descuelga con estofados de carne humana y otros "manjares"

Esther Lastra

Escrito por Esther Lastra

La cadena de supermercados Pak'nSave decidió alumbrar un bot para generar automáticamente recetas, pero estas resultaron ser bastante estrambóticas.

A veces tenemos ingredientes (más o menos abundantes en la nevera) y no se nos ocurre qué hacer con ellos, máxime cuando no somos demasiado hábiles en los fogones. Por esta razón la cadena de supermercados neozelandesa Pak’nSave decidió colgarse del brazo de la IA alumbrar un bot que generara recetas a partir de los ingredientes suministrados por sus clientes. ¿El problema? Que el bot se marras se descolgó con estrambóticas recetas sin tener en consideración si estas eran realmente apetitosas o podían costarles incluso la vida a quienes se las metieran entre pecho y espalda.

El bot de Pak’nSave, bautizado con el nombre de «Savey Meal-Bot», salió del cascarón el pasado mes de julio y desde entonces ha puesto en un dificilísimo brete a la cadena de supermercados con sus singulares recetas.

La idea Pak’nSave no era particularmente original, pero sí era al menos bienintencionada. En la web saveymeal-bot.co.nz los clientes pueden introducir tres o más ingredientes y en base a tales ingredientes el bot propone recetas con el último objetivo de impedir que las sobras terminen en el cubo de la basura.

Las poco apetitosas recetas de «Savey Meal-Bot»

Lo que proponía Pak’nSave con su bot llevaba en realidad haciéndose desde hace años, sin la complicidad, eso sí, de la IA. «Savey Meal-Bot» echa anclas en el lenguaje GPT-3.5 de OpenAI, el mismo que aloja en sus entrañas ChatGPT.

Sin embargo, el bot de la disordia no había sido a todas luces entrenado apropiadamente porque enseguida comenzó a descolgarse con delirantes platos (fritura de galletas Oreo y verduras, por ejemplo).

Conscientes de la debilidades del bot, algunos usuarios comenzaron a valerse de él para alumbrar recetas tan repugnantes como potencialmente tóxico. Alguien tuvo, por ejemplo, la ocurrencia de facilitar como ingredientes al bot «agua, amoníaco y lejía». Tras ser confrontado con estos poco apetitosos ingredientes, «Savey Meal-Bot» propuso una receta bautizada como «mezcla de agua aromática» sin apercibirse de que la meza de esos tres ingredientes puede producir cloramina, cuya ingesta puede descandenar tos, asfixia y náuseas.

La publicación de la receta en X no se convirtió en un éxito viral, pero sí se convirtió en un ejemplo a seguir por otros usuarios. Uno de ellos propuso después al bot de Pak’nSave tres ingredientes (carne humana, patatas y zanahorias) y «Savey Meal-Bot» sugirió una receta a la que endilgó la denominación de «estofado de carne misteriosa».

Otras recetas propuestas por el bot amalgamaban alegremente patatas con insecticida, pegamento, metanol y trementina, o veneno para hormigas con pan. Pronto quedó claro que «Savey Meal-Bot» se estaba convirtiendo en un auténtico quebradero de cabeza para Pak’nSave y que estaba lacerando la reputación de la cadena de supermercados.

El fenómeno no es nuevo en todo caso. Tratar de echar abajo los límites de herramientas de IA generativa como ChatGPT o Midjourney se ha convertido para algunos en una suerte de «deporte» online. Si bien OpenAI ha provisto a ChatGPT de una serie de filtros para prevenir su mal uso, los usuarios más maliciosos (y también más creativos) invierten su tiempo tratando de inhabilitar tales filtros mediante todo tipo de trucos.

Hace unos días, sin ir más lejos, unos investigadores publicaron un informe con instrucciones para «hackear» ChatGPT (OpenAI), Bard (Google) o Claude (Anthropic).

Lo que parece claro es que antes de lanzar una aplicación basada en estos modelos de lenguaje, hay que dar necesariamente respuesta de antemano a la siguiente cuestión: ¿qué es lo peor que los usuarios maliciosos pueden hacer potencialmente con esta herramienta?

Los trucos para «engañar» a la IA están a la orden del día

La cloramina y las recetas caníbales propuestas por «Savey Meal-Bot» no representan en realidad un peligro real. Poca gente almacena lejía y amoníaco en la nevera y que los niños tuvieran la ocurrencia de proporcionar precisamente estos ingredientes al bot de Pak’nSave se antoja un escenario excesivamente rebuscado (y por ende, poco probable).

Foodstuffs, la matriz de Pak’nSave, se ha sentido, no obstante, obligada a hacer la siguiente aclaración en declaraciones al diario New Zealand Herald: «Queremos que la gente se divierta con el bot y que no le pase nada por supuesto». Además, la compañía se ha tomado la molestia de implementar una serie de reglas que impidan a la gente proporcionar ingredientes que no sean en realidad comestibles.

Para acceder a la herramienta el usuario debe asimismo confirmar antes que tiene al menos 18 años de edad. La cláusula que el usuario debe aceptar antes de acceder al bot especifica asimismo que las recetas no están verificadas por humanos y que Pak’nSave no garantiza que sean verdaderamente seguras para su consumo. Es, por consiguiente, el usuario quien por su propia cuenta y riesgo debe decidir si zamparse o no las recetas propuestas por «Savey Meal-Bot».

 

WhatsApp introduce una función de Instagram: permite tener varias cuentas en un mismo móvil AnteriorSigueinteParis Hilton se zambulle de lleno en el metaverso con un "fan hub" en Roblox

Contenido patrocinado