líderes en noticias de marketing, publicidad y marcas

Así es la primera ley del mundo para regular la IA que ha pactado la UE

La UE hace historia y pacta la primera ley del mundo para poner coto a los desmanes de la IA

Esther Lastra

Escrito por Esther Lastra

La ley de IA pactada por la UE sale cascarón con el ánimo de establecer estándares de seguridad y de derechos fundamentales que eviten que esta tecnología se use con fines espurios.

Después de largas y arduas negociaciones en el seno de la Unión Europea (UE), ya hay acuerdo para la que tiene la vitola de ser la primera ley de inteligencia artificial (IA) el mundo. Esta normativa se traducirá en reglas más estrictas para el uso de la tecnología más en boga del momento y pondrá palos en las ruedas a las aplicaciones de IA potencialmente más peligrosas.

Los negociadores del Parlamento Europeo y de los estados miembros de la UE pactaron el pasado viernes por la tarde en Bruselas une ley pionera para regular la IA. La Eurocámara enfatiza que se trata de la primera ley de IA del mundo. Y Thierry Breton, comisario europeo de Mercados Interior y Servicios, insiste en endilgar al acuerdo el adjetivo calificativo de «histórico».

La Comisión Europea (CE) propuso por primera vez la ley en abril de 2021. De acuerdo con la regulación pactada por el Parlamento europeo y los estados miembros, los sistemas de IA se categorizarán en base a los riesgos a ellos solapados. Y las aplicaciones más preñadas de riesgos podrían eventualmente ser vetadas en el territorio de la UE.

En virtud de la ley, se impondrán asimismo severas normas de transparencia a las empresas que como OpenAI, Microsoft y Google se desempeñan en el ámbito de la IA. A este tipo de compañías se les exigirá, por ejemplo, que procuren información específica sobre los datos empleados para entrenar a sus sistemas de IA y sobre el cumplimiento de las normas de «copyright».

La nueva regulación europea sale del cascarón con el ánimo de establecer estándares de seguridad y de derechos fundamentales que eviten que esta tecnología se use con fines enfocados a la represión, la manipulación y la discriminación. No obstante, la norma evita simultáneamente caer en hiperregulación, que hubiera menoscabado a la postre la competitividad de los países de la UE.

Esa ley podría erigirse en modelo a seguir en todo el mundo para regular la IA (o así lo desea al menos la UE). Actualmente Estados Unidos está trabajando también en una norma para regular esta tecnología. Sin embargo, los planes de los congresistas se encuentran aún en su fase más primigenia y prevén normas menos estrictas que las de la UE.

Las regulación de los modelos fundacionales de IA y el uso de esta tecnología con fines biométricos han sido los asuntos más espinosos en las negociaciones para pactar la ley

La IA hace normalmente referencia a las aplicaciones que echan anclas en el «machine learning», una tecnología que permite emprender búsquedas en grandes volúmenes de datos para hallar coincidencias y extraer conclusiones en base a los resultados. Las aplicaciones de IA pueden emplearse en múltiples áreas. Y pueden, por ejemplo, evaluar las imágenes extraídas de tomografías de manera mucho más rápida y certera que los humanos. Los coches autónomos se apoyan asimismo en la IA para predecir el comportamiento de otros automovilistas en la carretera. Y los chatbots y las «playlists» automáticas de los servicios de música en streaming ser rigen también por idéntica tecnología.

Conviene, en todo caso, hacer notar que las negociones en el seno de la UE estuvieron hace poco a punto de saltar por los aires por culpa de la regulación de los denominados modelos fundacionales de IA. Tales modelos son muy poderosos, son entrenados con ingentes cantidades de datos y son la base de toda una plétora de aplicaciones. ChatGPT es, por ejemplo, un modelo fundacional de IA. Alemania, Francia e Italia se habían posicionamiento previamente a favor de regular única y exclusivamente aplicaciones específicas de IA (excluyendo a los modelos fundacionales).

Las reglas para regular la vigilancia biométrica con el apoyo de la IA para propósitos de seguridad nacional ha sido también motivo de fuertes controversias. Finalmente, esta tecnología estará prohibida de forma general y se podrá utilizar solamente en tres casos: para la búsqueda de víctimas de secuestros o trata de seres humanos, para la prevención de ataques terroristas o cuando tales ataques hayan sido ya perpetrados y para la identificación de personas sospechosas de haber cometido delitos de terrorismo, asesinatos, violaciones o tráfico sexual.

El Parlamento Europeo y los estados miembros de la UE deberán aprobar ahora la ley de IA, pero una vez alcanzado el acuerdo el pasado viernes, esa aprobación se perfila como una mera formalidad.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

Meta sacará Threads del horno en Europa el próximo 14 de diciembreAnteriorSigueinteXiaomi España presenta su campaña de Navidad y nos invita a capturar momentos que duren para siempre

Contenido patrocinado