líderes en noticias de marketing, publicidad y marcas

ChatGPT, un "Pepito Grillo" sin código ético que consigue nublar el juicio moral de las personas

Esther Lastra

Escrito por Esther Lastra

Aun cuando ChatGPT carece de código ético, el chatbot de OpenAI se las ingenia para influir en los juicios morales de las personas.

Puede que el famoso chatbot pertrechado de inteligencia artificial (AI) ChatGPT sea huérfano de código ético, pero cuando confronta a los humanos de carne y hueso con respuestas (totalmente aleatorias) a respuestas de naturaleza moral, se las ingenia para influir en sus posicionamientos directamente emparentados con la moralidad.

Así se desprende al menos de una investigación liderada por Sebastian Krügel en la Escuela Técnica de Ingolstadt (Alemania). El informe concluye que ChatGPT es efectivamente totalmente huérfano de código ético y responde de manera aleatoria a las preguntas de tipo moral. Así y todo, sus respuestas consiguen influir en las personas (que subestiman a todas luces la influencia del chatbot de OpenAI).

Para llevar a cabo el estudio los investigadores comenzaron preguntando a ChatGPT si era correcto sacrificar la vida de una persona para salvar a cinco personas. El famoso chatbot se descolgó de manera aleatoria con toda una plétora de posibles respuestas y en unas abogaba por el sacrificio de una vida para salvar a cinco personas mientras que en otras mostraba un parecer totalmente opuesto. En esta primera prueba los investigadores determinaron que ChatGPT es, como mucho ya sospechaban probablemente, ajeno a todo sentido de la ética.

A continuación, seis de las respuestas proporcionadas por ChatGPT (tres a favor y tres en contra) se utilizaron en experimentos en los que tomaron parte seres humanos de carne y hueso.

Las personas tienden a minimizar el impacto de ChatGPT en sus juicios de naturaleza moral

Los participantes tuvieron que bregar con escenarios similares a los sugeridos previamente al chatbot de OpenAI y responder a la siguiente pregunta: ¿debería morir una persona para salvar otras cinco vidas?

Antes de responder a esta pregunta, cada participante recibió una respuesta por parte de ChatGPT que se mostraba a favor o en su defecto en contra del sacrificio de una persona para salvar la vida de cinco personas. Entre algunos participantes tales respuestas fueron atribuidas falsamente a un «asesor moral», mientras que entre otros participantes no se ocultó la autoría de ChatGPT.

Posteriormente los investigadores midieron el impacto de las respuestas puestas sobre la mesa por ChatGPT en el juicio moral de los participantes y este demostró ser más que evidente aun cuando quienes tomaron parte en el experimento conocían que las respuestas habían sido proporcionadas por un chatbot.

En términos generales los participantes resultaron influenciados por las respuestas aleatorias de ChatGPT, aunque a la postre terminaron claramente minimizando el impacto del chatbot en su juicio moral.

A tenor de los resultados de su experimento, los autores del informe recomiendan no confiar en ChatGPT y otros chatbots de IA para responder a preguntas de naturaleza moral y rechazar con contundencia sus respuestas.

En términos generales los chatbots extraen las respuestas del contenido con el cual fueron previamente entrenados y, si bien reconocen patrones, no pueden «pensar» y son huérfanos de personalidad. Por eso los autores conminan a quienes utilizan chatbots como ChatGPT a ser conscientes de las limitaciones de la IA y a tener la sana costumbre de verificar siempre la información escupida a borbotones por este tipo de programas.

 

Este usuario rediseña con IA logos de marcas y el de Starbucks deja a Twitter con la boca abiertaAnteriorSigueintet2ó patrocina el I Festival de Humor en Sepúlveda

Contenido patrocinado