IA, adaptarse o morir

Investigadores de la Universidad de Harvard han publicado recientemente las conclusiones de un interesante estudio en el que se enfrentaba, en 18 tareas típicas de la consultoría, a profesionales haciendo uso de ChatGPT frente a otros que no lo podían usar. Los que sí lo usaron, completaron un 12% más tareas, un 25% más rápido y con resultados de mayor calidad (un 40% más). Sin duda, un estudio metodológicamente sólido que señala el valor de la IA generativa como una herramienta de competitividad.
Estudios como el citado conviven con otro tipo de experimentos en los que la IA no sale tan bien parada. Coincidiendo con el despliegue en ChatGPT de la capacidad para reconocer imágenes, son muchos los que en hilos de X (antes Twitter) que han compartido sus experiencias «jugando» con el sistema. Recuerdo uno en el que la imagen que se pedía al sistema reconocer era una fotografía de una modelo como muchas otras, si no fuera por el hecho de que la modelo tenía tres piernas. Al preguntarle a ChatGPT si detectaba alguna anomalía, el bot respondía haciendo una descripción detallada de la imagen y, curiosamente, no detectaba que tener tres piernas no es lo normal en los seres humanos.
Son muchos los ejemplos en los que los grandes modelos del lenguaje (LLMs) ofrecen respuestas que sorprenden por su nivel de calidad y precisión. Y al mismo tiempo no son pocos los experimentos en los cuales, entre la información en las respuestas se cuela algún dato totalmente erróneo. Eso convierte a las IAs generativas en una herramienta de uso delicado, al menos si no se sabe discernir en qué contexto y cómo se deben utilizar. Si queremos emplear una IA para la generación de una imagen fotorrealista de una persona, todos sabremos detectar que la imagen no será correcta si nos aparece una persona con tres piernas y cuatro brazos. Sin embargo, si la uso para informarme sobre áreas del conocimiento que no forman parte de mi expertise, la probabilidad de que pueda descubrir potenciales errores en la información proporcionada caen drásticamente.
Los profesionales que nos dedicamos a la comunicación y el marketing nos vemos abocados a realizar frecuentes incursiones en diferentes tipos de realidades y sectores que no forman parte de nuestro campo central de especialización. Que el uso de los grandes modelos del lenguaje como ChatGPT no sea el adecuado para determinadas tareas en las que no podamos detectar la corrección de la información, no quiere decir que no podamos utilizarlo para otras muchas en las que podamos llegar a ser un 25% más rápidos y acometer un 12% más tareas, como prueba el estudio de Harvard con el que abríamos este artículo.
Los grandes modelos del lenguaje son una nueva y muy potente herramienta. El hecho de que la manera de interactuar con ellos no sea mediante complejos lenguajes de programación, sino que sea tan sencilla como hablar con un ser humano, no debe llevarnos a la idea equivocada de que no hay una manera correcta de usarla y otras muchas que no lo son. Los profesionales que desarrollen la habilidad y el conocimiento para aprender a usar la IA serán más rápidos, eficientes y entregarán resultados de mayor calidad. Los que no, correrán el riesgo de quedarse atrás, malinterpretar su potencial y, en última instancia, desaprovechar una de las revoluciones tecnológicas más significativas de nuestro tiempo. La era de la inteligencia artificial no perdona a los desprevenidos; adaptarse es imperativo.
Por Miguel Lucas, director de innovación en LLYC
La magia del Mix de medios pagados... y ganadosAnteriorSigueinteEl día que el marketing se equivocó de camino