líderes en noticias de marketing, publicidad y marcas

El CEO de OpenAI reclama la regulación de la IA

Quien avisa no es traidor: el CEO de OpenAI pide atar en corto a la potencialmente perversa IA

Esther Lastra

Escrito por Esther Lastra

Sam Altman reclamó ayer a los legisladores estadounidenses de manera contundente y libre de medias tintas medidas regulatorias para atar en corto a la IA.

El meteórico desarrollo de la inteligencia artificial (IA) ha provocado en las últimas semanas que países como Alemania, Países Bajos y España coloquen bajo la lupa con ánimo escrutador los peligros potenciales desde el punto de vista de la seguridad y la privacidad que plantea esta tecnología de nueva hornada.

A ojos de muchos, es absolutamente perentorio regular la IA. Y entre quienes reclaman un marco regulatorio adecuado para esta tecnología está Sam Altman, CEO de OpenAI, la compañía detrás del cada vez más ubicuo ChatGPT.

Altman testificó ayer sobre la regulación de la IA en el Senado de Estados Unidos. Y reclamó de manera contundente a los legisladores estadounidenses medidas regulatorias para atar en corto a la IA. El máximo responsable de OpenAI abogó además por establecer pautas de seguridad para la IA. «Es esencial regular la inteligencia artificial, y que las normas garanticen que el público acceda a los muchos beneficios de esta tecnología», señaló Altman. «Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal», recalcó.

La comparecencia de Altman en el Senado ha tenido lugar en un momento en que los organismos reguladores de países como Italia han puesto ya palos en las ruedas al producto estrella de OpenAI: ChatGPT. Además, abundan cada vez más las voces críticas que advierten de los peligros de un uso potencialmente malicioso de la IA.

Altman se confesó «ansioso por ayudar a los legisladores a determinar cómo facilitar la regulación que equilibre el incentivo de la seguridad y garantice que las personas puedan acceder a los beneficios de la tecnología«.

El CEO de OpenAI quiere además que las compañías y organismos involucrados en el desarrollo de la IA se unan para definir un «conjunto apropiado de requisitos de seguridad, incluidas pruebas internas y externas antes del lanzamiento» de los modelos de inteligencia artificial. Y tales requisitos deberán combinarse con un régimen de gobierno flexible «para adaptarse a los nuevos desarrollos tecnológicos».

Los gobiernos deben involucrarse en la regulación de la IA, según Altman

De acuerdo con Altman, la pujante IA carga sobre los hombros con un potencial absolutamente gigantesco, pero necesita apoyarse de manera necesaria en un marco regulatorio. «Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos», aseveró el CEO de OpenAI.

En su intervención en el Senado Altman tuvo asimismo que confrontar las críticas de los legisladores. El senador Richard Blumenthal presentó, por ejemplo, al CEO de OpenAI un inquietante «deepfake» de su propia voz generado con ChatGPT.

Entre la batería de propuestas para regular a IA que Altman puso ayer sobre la mesa en el Senado destaca la creación de un régimen de licencias aplicable a aquellas empresas que trabajen con modelos muy potentes de inteligencia artificial y que garantice el «cumplimiento de las normas».

Otra medida propuesta por Altman es alumbrar un «conjunto de estándares de seguridad». El CEO de OpenAI planteó asimismo la necesidad de «crear protocolos para descubrir cuándo un modelo es capaz de replicarse a sí mismo». Y es que esta posibilidad, que parece directamente salida de una película de ciencia ficción, es hoy por hoy muy real y es, de hecho, uno de los principales quebraderos de cabeza de los expertos en IA.

Aunque es una tecnología muy prometedora, la IA alberga en sus robóticas entretelas no pocos peligros. Y cada vez más expertos están haciendo notar las consecuencias potencialmente calamitosas del crecimiento descontrolado de la IA. De hecho, el pasado mes de marzo Elon Musk, Steve Wozniak y otros expertos en tecnología publicaron una carta abierta en la que proponían pausar durante seis meses el desarrollo de la IA en vista de los derroteros potencialmente perversos que podría acabar tomando esta tecnología.

Y hace unas semanas el investigador británico Geoffrey Hinton, conocido como el «padrino» de la IA, se desvinculaba profesionalmente de Google para advertir asimismo de los peligros de la tecnología a la que ha consagrado buena parte de su carrera profesional. De acuerdo con Hinton, que era hasta hace poco vicepresidente de ingeniería de Google, «es difícil solventar cómo se puede evitar que los malos actores usen la IA para cosas malas».

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

"Empowering Digital Creativity": DMEXCO se pone la creatividad por montera en su próxima ediciónAnteriorSigueinteSolar360, el proyecto de Repsol y Telefónica que acerca la energía fotovoltaica a familias y empresas

Contenido patrocinado