líderes en noticias de marketing, publicidad y marcas

Digital MarketingUn ojo humano mezclado con algoritmos y la inteligencia artificial

La situación de la inteligencia artificial responsable

Las empresas suspenden en inteligencia artificial responsable

Por más avances que se estén haciendo, lo cierto es que todavía queda camino en el trayecto hacia una inteligencia artificial responsable que garantice unos mínimos éticos y que no afecte a los seres humanos.

Desde hace años se viene hablando de los desarrollos que se van haciendo en inteligencia artificial, pero quizás la carrera por avanzar en este ámbito no esté siendo acompañada de unos mínimos éticos que garanticen que la IA no afecte a los seres humanos. Así lo ha dejado caer una investigación mundial acerca de la implementación de la inteligencia artificial responsable (RAI) realizada por BCG GAMMA.

Esta ha revelado, entre otras conclusiones, que el 55% de las empresas analizadas sobreestima la madurez de este tipo de iniciativas, y menos de la mitad que declaró haber logrado el éxito en sus programas de IA responsable no los ha implementado de manera completa.

Para realizar «Are You Overestimating Your Responsible AI Maturity», BCG GAMMA ha evaluado los datos proporcionados por directivos de más de 1.000 empresas. De este modo, se ha podido concluir que las organizaciones se encuentran en cuatro etapas distintas de madurez de la inteligencia artificial responsable: rezagada (14%), en desarrollo (34%), avanzada (31%) y líder (21%).

Por ejemplo, las empresas de Europa y América del Norte tienen la mayor madurez de RAI en comparación con otras regiones, lo que significa que son las que más impulsan la ética en los algoritmos.

La inteligencia artificial responsable no está tan integrada como creen las empresas

La situación de una compañía refleja su progreso en el tratamiento de siete dimensiones, incluyendo la justicia, la equidad, la gobernanza de los datos, la privacidad y la IA humana, entre otras. «Aunque muchas organizaciones están haciendo progresos, está claro que la profundidad y la amplitud de la mayoría de los esfuerzos están por debajo de lo que se necesita para garantizar realmente una IA responsable», aseguró Steven Mills, director de ética de BCG GAMMA y coautor del estudio.

Este también señaló que «muchas empresas son demasiado optimistas sobre la madurez de su implementación de la IA responsable». Aunque directivos y consejos están preocupados por los riesgos organizativos que plantea un fallo de un sistema de inteligencia artificial, la investigación revela que las empresas no están persiguiendo implantar la RAI simplemente para mitigar los riesgos potenciales. Por el contrario, las organizaciones líderes saben que es una herramienta de creación de valor.

«Debemos abordar la inteligencia artificial no solo desde la perspectiva tecnológica, sino con un enfoque holístico que contemple el impacto de sus aplicaciones y ponga a los individuos y sus derechos en el centro con el objetivo de construir entre todos una IA transparente y explicable», afirma Llorenç Mitjavila, socio responsable de BCG GAMMA en Iberia.

Manuel Alcántara y Nico Pariente, nuevos supervisores creativos en ParnasoAnteriorSigueinteLicor 43 elige a Arnold Madrid como su agencia

Noticias recomendadas