Digital

Los peligros de mezclar guerra y IA, según Amnistía Internacional

Amnistía Internacional advierte de los peligros de utilizar la IA en el campo de batalla

La investigadora de Amnistía Internacional, Rasha Abdul Rahim advierte sobre los peligros de utilizar la IA para automatizar las armas de guerra.

inteligencia artificialLa inteligencia artificial está en boca de todos. Y no es para menos, pues su poder es innegable. Ahora bien, como advierte la investigadora sobre control de armas e inteligencia artificial en Amnistía Internacional, Rasha Abdul Rahim, si no se dan los pasos necesarios para proteger los derechos humanos, podría traer escenarios realmente aterradores. Lo cierto es que pensar en sistemas automáticos de armamento que fijen objetivos de forma automática con una mínima intervención humana puede hacer que cualquiera se estremezca.

Rahim ponía como ejemplo el reciente informe de Google sobre el proyecto Maven, del Pentágono estadounidense, que incluía tecnología de reconocimiento de imágenes a través de IA que procesaba rápidamente fotos tomadas por drones. Recientemente, el gigante de las búsquedas desveló sus nuevas políticas éticas para la inteligencia artificial y expresó que no continuaría en este proyecto una vez que expirase el contrato, el próximo año. De hecho, la investigadora pide a Google que cese su colaboración de inmediato. No está claro si otras compañías tecnológicas están involucradas, pues la mayoría han decidido permanecer en silencio, según FastCompany.com.

Amnistía Internacional también considera un problema importante los potencialmente mortales sistemas de IA que operarán en el campo de batalla con una supervisión humana limitada.

“Cumplir con las leyes de la guerra requiere de la capacidad de razonamiento humana, la habilidad de analizar las intenciones que están detrás de las acciones y tomar decisiones complejas sobre la proporcionalidad o necesidad de cada ataque”, escribe Rahim. “Las máquinas y los algoritmos no pueden recrear estas habilidades humanas, no pueden negociar, producir empatía o responder a situaciones impredecibles”, añade.

Por lo tanto, a la vista de todo esto, Amnistía Internacional y sus socios han desarrollado Campaign to Stop Killer Robots, un llamamiento a la total prohibición de desarrollar, implementar y utilizar sistemas de armas completamente autónomos.

Desde el punto de vista legal, varios abogados ya han señalado que la utilización de armas autónomas podría ser objeto de prohibiciones similares a las utilizadas para restringir las armas químicas o los campos de minas.

El pasado mes, Amnistía Internacional y el grupo para los derechos digitales Access Now también hicieron circular la llamada “Declaración de Toronto”. En ella, proponían la fijación de una serie de principios dirigidos a proteger a la población contra la discriminación basada en IA. Una declaración a la que, según Rahim, Amnistía Internacional anima a unirse a todas las compañías tecnológicas.

Te recomendamos

México

School

Podcast

Podcast

Compartir