
Digital MarketingUna mano robótica señalando luces
Los peligros de la IA en los ciberataques
Los peligros de la IA en los ciberataques o cómo los robots hackearán sistemas
Expertos advierten de las brechas de seguridad en la inteligencia artificial y de los ciberataques realizados por robots.
2020 fue un año prolífico en ciberataques. Un 53% de empresas españolas notificó haber sido víctima de al menos un ataque en su sistema informático. Así lo señala la quinta edición del ‘Informe de cibrepreparación’ de Hiscox.
Además, estos ciberataques se están volviendo más graves. Antes de que acabara el año, el CNI había detectado 6.690 incidentes de peligrosidad muy alta. Por su parte, el Centro Criptológico Nacional (CCN) encontró 73.184 ciberamenazas totales a lo largo del año. Esto supone un aumento del 70% respecto al año anterior.
Esto ha alimentado el miedo a una rebelión de las máquinas y a que los robots se conviertan en hackers, realidad que los expertos no descartan. En algún momento, puede que quienes pirateen nuestros sistemas sean hackers no humanos.
El lado oscuro del big data puede conducirnos a esa realidad distópica. Lo advierten expertos como Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC).
«Busca automatizar tareas de toda índole, desde la asignación de un crédito hasta la selección de personal. Y el uso de algoritmos no está libre de errores, bugs, omisiones, propósitos específicos y sesgos de todo tipo. Esto puede provocar problemas sociales, económicos y políticos», afirma, haciendo referencia a la inteligencia artificial actual basada en el big data.
¿Cómo la inteligencia artificial puede llegar a convertirse en hackers?
Pero ¿cómo pueden llegar a provocar ciberataques? Según Jordi Serra, también profesor de los Estudios de Informática, Multimedia y Telecomunicación, esta es la manera de trabajar de los algoritmos:
«Va más allá de lo que una persona pueda pensar. Se pueden programar pensando que harán, por ejemplo, una clasificación concreta y al final que lo hagan de otra manera, aunque el resultado sí puede ser idéntico al que se había pensado».
Nosotros vemos datos que obtenemos de diferentes fuentes, dándoles contexto y entendiéndolos. Los sistemas de inteligencia artificial lo que hacen es buscar relaciones entre esos datos, más allá de lo que puedan significar. «Al ser más rápidas, pueden encontrar relaciones entre los datos que los humanos no pensamos por tener ese conocimiento previo que nos hace pensar en que a lo mejor dos datos no están relacionados», explica.
Esto significa que, mientras los humanos tenemos una manera de pensar predeterminada a partir de la experiencia y del conocimiento que tenemos previo, las máquinas no. «El control de las máquinas no se tiene», añade Serra.
La forma de evitar los ciberataques por parte de robots
Los sistemas de IA siguen mecanismos para detectar patrones y encontrar soluciones óptimas. Eso puede hacer que lleguen a casos que se denominan como ‘reward hacking’. Estos se traducen en tener el objetivo de lograr la mayor optimización en el problema que resuelven, pero sin tener en cuenta el contexto, la regulación o la ética.
«Identificar estos problemas pasa por analizar los modelos generados mediante interpretabilidad antes y durante su puesta a producción. Es decir, se trata de monitorizar el modelo, cómo toma decisiones, qué sesgos le afectan, cómo evoluciona su rendimiento… Se trata, en definitiva, de introducir el gobierno de IA», comenta Curto.
Sin embargo, hay algunas dificultades para llevarlo a cabo. Por ejemplo, que la IA es, en opinión de Serra, cada vez más opaca. Los expertos se debaten entre si se le está dando demasiado poder a la tecnología basada en IA o si se está infravalorando la protección de la seguridad en este campo.
«Muchas organizaciones no tienen claro ni cómo funcionan los sistemas de IA ni cómo gobernarlos de forma adecuada ni tampoco el impacto social, por lo que no se toman en cuenta medidas de protección adecuadas en todo el ciclo del sistema», asegura Curto.
«A medida que digitalizamos todos los procesos de negocio, muchas empresas van a apostar por IA para extraer valor de estos activos. Pero sin principios éticos, identificación de sesgos, comprensión de cómo funcionan los algoritmos, los límites de cómo funcionan… será natural caer en escenarios como los comentados, ya sea por omisión o con premeditación y alevosía», advierte Josep Curto.