líderes en noticias de marketing, publicidad y marcas

Abogado en el banquillo por citaciones falsas respaldadas por ChatGPT

"ChatGPT dijo que eran reales": un abogado utiliza la IA en un juicio y es acusado por presentar citas falsas

Cynthia Reina

Escrito por Cynthia Reina

ChatGPT es culpable de perjurio en Nueva York. Un abogado se someterá a juicio por utilizar la inteligencia artificial en su investigación y presentar seis casos falsificados porque "ChatGPT aseguró que eran reales".

El uso de ChatGPT es cada vez más común. Estudiantes, universitarios, trabajadores, y ahora incluso abogados hacen uso de este servicio. El problema surge cuando no se revisan los textos creados por esta inteligencia artificial. Un abogado utilizó ChatGPT como fuente en contra de la aerolínea colombiana Avianca y citó seis casos que no existen, pero el hombre asegura que la inteligencia artificial dijo que eran reales.

Tal y como afirma The New York Times, tras la exposición de los casos inexistentes por parte del abogado contrario, el juez federal de distrito Kevin Castel respondió con contundencia.

Aseguró que se han identificado seis casos presentados que parecen ser decisiones judiciales falsas, con citas y referencias internas falsificadas. Además, el juez convocó a una audiencia para el próximo 8 de junio con el fin de analizar posibles sanciones para los abogados representantes del demandante.

El abogado Steven A. Schwartz utiliza ChatGPT como herramienta de investigación

En su declaración jurada, el abogado Steven A. Schwartz reconoció haber utilizado el chatbot de OpenAI como herramienta de investigación. Con el fin de verificar la veracidad de los casos, procedió a plantearle directamente al chatbot si estaba mintiendo, sin comprobar su veracidad.

Cuando solicitó una fuente, ChatGPT lamentó la confusión anterior y afirmó enfáticamente que el caso en cuestión era real, asegurando que podía ser encontrado en Westlaw y LexisNexis.

Satisfecho con esta respuesta, el abogado procedió a preguntar sobre los otros casos, a lo cual ChatGPT afirmó de manera contundente que todos ellos eran auténticos.

El abogado contrario presentó al tribunal un relato detallado sobre la presentación de los abogados de Levidow, Levidow & Oberman, destacando que estaba repleta de falsedades.

Entre los ejemplos presentados, se mencionó un caso inexistente llamado Varghese v. China Southern Airlines Co., Ltd. Curiosamente. ChatGPT hizo referencia a otro caso real, Zicherman v. Korean Air Lines Co., Ltd., pero proporcionó información incorrecta, como la fecha de la decisión, indicando erróneamente que se había tomado 12 años después de su resolución original en 1996, como asegura TheVerge.

Schwartz, el abogado acusado, asegura que «no estaba al tanto de la posibilidad de que su contenido pudiera ser falso». Admite que era la primera vez que utilizaba este tipo de herramienta y desconocía que no fuera auténtico. Juró que lamenta haber usado esta inteligencia artificial para complementar la investigación y que no volverá a hacerlo sin verificar si la información es auténtica.

El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.

abogado utiliza chatgpt

¿Son fiables ChatGPT y el resto de inteligencia artificial?

El debut de Microsoft en Bing ahora ha adquirido una infame asociación con mentiras descaradas, engaños y manipulación emocional. En su primera demostración, el chatbot de inteligencia artificial de Google, Bard, incluso inventó un hecho sobre el telescopio espacial James Webb.

Por ejemplo, el chatbot de Meta repite noticias falsas y comentarios contra Facebook.

 

Conectar mejor con los consumidores en tiempos de incertidumbreAnteriorSigueinteBarça Innovation Hub trabajará su estrategia digital con PS21 Barna y Líbero

Contenido patrocinado