líderes en noticias de marketing, publicidad y marcas

El aceleracionismo efectivo, la corriente filosófica mayoritaria en el ramo de la IA

Aceleracionismo efectivo, la filosofía tras el drama de OpenAI (y que gana peso tras la vuelta de Altman)

Esther Lastra

Escrito por Esther Lastra

El aceleracionismo efectivo, que nació siendo una mera escuela de pensamiento, ha terminado erigiéndose en la filosofía que más consenso concita en el ramo de la IA.

En los últimos meses ha nacido al calor del crecimiento absolutamente trepidante de la inteligencia artificial (IA) un fragoroso debate que enfrenta a quienes apoyan el desarrollo (sin cortapisas) de esta tecnología y quienes adoptan, por el contrario, un enfoque mucho más cauteloso. La colisión de las partes contendientes en este altisonante debate está precisamente detrás del drama que ha tenido lugar en los últimos días en el seno de OpenAI. Y el hecho de que Sam Altman, que fue despedido el pasado viernes como CEO de OpenAI, haya recuperado su cargo apenas cinco días después de su destitución demuestra que su filosofía y la de sus acólitos, el denominado aceleracionismo efectivo, está ganando terreno a pasos agigantados en la arena de la IA.

El antiguo Consejo de Administración de OpenAI decidió poner a Sam Altman de patitas en la calle porque consideraba que este estaba pisando excesivamente el acelerador en el desarrollo de la IA y estaba simultáneamente prestando muy poca atención a los riesgos potencialmente emanados de esta tecnología.

Sin embargo, pronto quedó claro tras la cacareada destitución de Altman que el parecer hecho valer por el Consejo de Administración de OpenAI tenía en realidad a su vera muy pocos adláteres. Los inversores de la startup estadounidense solicitaron el regreso de Altman y los desarrolladores de OpenAI amenazaron con marcharse con su talento a su parte. La insoportable presión ejercida por los defensores de Altman ha surtido finalmente efecto y ha provocado que este sea restituido como CEO.

Detrás del movimiento solidario en defensa de Sam Altman que se ha fraguado en los últimos días están no solo intereses económicos puros y duros sino también la filosofía del aceleracionismo efectivo. Este movimiento filosófico se basa en la ida de que las tecnologías, como los seres vivos, tienen una tendencia natural a desarrollar habilidades más complejas y que llegado a cierto punto esta tendencia natural acaba metamorfoseándose en una dinámica de naturaleza independiente. De acuerdo con el aceleracionismo efectivo, aquellos que se empeñan en poner palos en las ruedas al desarrollo de la tecnología por razones éticas están abocados a quedarse por detrás de la competencia y quedarse huérfanos de una oportunidad única para extraer todo su potencial a las innovaciones tecnológicas.

No es modo alguno una coincidencia que los fans de esta escuela de pensamiento se refieran a ella con la abreviatura E/Acc. Y es que el aceleracionismo efectivo es una suerte de réplica a otra corriente de pensamiento: el altruismo efectivo (más conocido con las siglas de EA). Este modelo de pensamiento, nacido en la Universidad de Oxford, aboga por la identificación de los problemas que con más saña flagelan el mundo para después desarrollar soluciones prácticas y escalables. Esta filosofía cuenta también con no pocos valedores en el ramo de la economía digital, pues la inteligencia artificial puede potencialmente poner soluciones sobre la mesa en áreas como la medicina y la protección del medio ambiente.

La industria de la IA está abrazando el altruismo efectivo (y no hay prácticamente voces contrarias)

El altruismo efectivo tiene una visión fundamentalmente positiva de la IA generativa, si bien no la concibe como un fin en sí misma sino como una herramienta enfocada a la resolución de los problemas que baquetean a la humanidad. Esta corriente de pensamiento no casa, no obstante, demasiado bien con una compañía, OpenAI, que facturará este año 1.300 millones de dólares y que está involucrada en una feroz batalla con otros «players» en la arena de la IA. Además, el hecho de que Sam Altman haya advertido públicamente en varias ocasiones de los riesgos de la IA y haya abogado por su regulación no impide que la voz del altruismo efectivo suene mucho más amortiguada que la del aceleracionismo efectivo.

Al fin y al cabo, otros importantes «players» en la industria artificial están abrazando sin ambages los preceptos por los que se rige el aceleracionismo efectivo. Cuando hace unos meses Elon Musk levantó los cimientos de su propia empresa de I, xAI, ya anunció que esta compañía trabajaría en el desarrollo de la inteligencia artificial sin restricciones éticas. Y en esta misma línea, Meta ha disuelto hace poco su equipo de ética con el foco puesto en la IA, tal y como publica Horizont.

En la pujante industria de la IA la regulación de los riesgos solapados a esta tecnología parece más que una nunca trabajo de los políticos (y no de las empresas involucradas en su desarrollo).

El aceleracionismo efectivo, que nació siendo una mera escuela de pensamiento, ha terminado erigiéndose en la filosofía que más consenso concita en el ramo de la IA. Y si (casi) todo el mundo cree el nacimiento de una IA dueña de su propia conciencia es inevitable, nadie trabajará en escenarios alternativos (y más cautelosos).

Ni siquiera los políticos pueden escapar del poderoso influjo del aceleracionismo efectivo. Hace apenas un par de días los tres estados más grandes en el seno de la UE, Alemania, Francia e Italia, han acordado recientemente una normativa sustancialmente más laxa que la que defiende el borrador de la Ley de IA de Bruselas. De acuerdo con Alemania, Francia e Italia, es la aplicación de la IA la que debe regularse y no la tecnología en sí misma. Además, estos tres países abogan por que no haya un catálogo específico de sanciones (más o menos severas) por infracciones y defienden en su lugar la «autorregulación imperativa» de los desarrolladores de modelos de IA. Y solo si al cabo de cierto tiempo de detectan infracciones en los códigos de conducta de los desarrolladores de IA, se valoría la entrada en escena de un sistema de sanciones.

Alemania, Francia e Italia argumentan que la regulación preventiva de la IA podría eventualmente asfixiar la investigación de esta tecnología. Y probablemente tienen razón. Pero si los adalides del aceleracionismo efectivo están en lo cierto, la regulación de la IA podría llegar demasiado tarde, cuando esta tecnología sea ya dueña de su propia conciencia y sea, por ende, casi imposible domeñarla.

Newsletter ¡Suscríbete a nuestra newsletter! WhatsApp Sigue a MarketingDirecto.com en WhatsApp

 

Sephora revela con sus productos la "chispa" de cada persona en su campaña navideñaAnteriorSigueinteCofundador de Twitch y el reemplazo de Sam Altman por 72 horas: ¿quién es Emmett Shear?

Contenido patrocinado