“Quien lidere la inteligencia artificial gobernará el mundo”. En función de quién diga esta frase, las connotaciones van desde apocalípticas hasta entusiastas. Cada vez más líderes mundiales señalan las potencialidades de la inteligencia artificial para desequilibrar la balanza de poder y amenazar intereses de empresas, ciudades y países enteros. Los ciberataques son cada vez más sofisticados, pero la IA también está reforzando las ciberdefensas.
A finales de 2017, una refinería petrolífera en Arabia Saudí sufrió un ciberataque que provocó un apagón total y borró toda la información de sus discos duros. El sistema de transporte público de San Francisco fue hackeado. Y hace poco más de un año WanaCry puso en jaque a países enteros. Solo en España, el Instituto Nacional de Ciberseguridad (INCIBE) resolvió 885 ciberataques a operadores estratégicos en 2017.
“Cuanto más avanza la IA, más crece su potencial de ataque. Técnicas como el machine learning avanzado, el deep learning y las redes neuronales permiten que las computadoras encuentren e interpreten patrones. También pueden encontrar y explotar vulnerabilidades.
Tenemos software malicioso y ransomware inteligente que aprende a medida que se propaga, inteligencia artificial que coordina ciberataques globales o análisis de datos avanzados para personalizar ataques,” señalan en el informe de inteligencia artificial de 2018 de la consultora PwC.
Las capacidades de la inteligencia artificial
La IA está abriendo la puerta a un sinfín de nuevas aplicaciones. Vehículos autónomos, reconocimiento facial, análisis de imágenes y datos, reconocimiento de voz… Pero las mismas herramientas se pueden usar con propósitos maliciosos. Al final, por muy sofisticada que sea, la inteligencia artificial es una palanca de cambio más. Y depende del ser humano cómo utilizarla.
“En los últimos cinco años, la IA en reconocimiento de imágenes ha pasado de categorizar correctamente alrededor del 70% de las fotografías a una categorización casi perfecta del 98%, superior al 95% de precisión humana”, recogen en el informe The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, firmado por algunas de las universidades y centros de investigación más importantes del planeta.
En sus páginas, se desgranan las siguientes habilidades de los sistemas de inteligencia artificial que pueden ser utilizados con propósitos maliciosos, tanto en la esfera online como en el mundo físico. Son, señalan, desarrollos positivos que pueden ser utilizados con propósitos negativos y, por lo tanto, difíciles de evitar.
- El reconocimiento facial preciso se puede aplicar a sistemas de armas autónomas.
- La capacidad de generación de imágenes puede dar lugar a suplantaciones de identidad o la publicación de contenido falso.
- Los programas que buscan vulnerabilidades en dispositivos y redes pueden usarse para atacar y aprovechar dichas vulnerabilidades.
- Los drones autónomos que se están desarrollando para reparto de mercancías pueden transportar bombas o armas con la misma facilidad.
- La automatización de tareas impide que factores psicológicos como la empatía entren en juego a la hora de tomar decisiones. Al mismo tiempo, se refuerza el anonimato.
- Son siempre sistemas eficientes y escalables. Cuanto más se usen, más aprenderán.
- En un plazo todavía indeterminado, la IA acabará superando al ser humano en todos los campos.
¿Es la inteligencia artificial una amenaza?
Hace ahora un año, un grupo de 116 investigadores y dueños de empresas de robótica e inteligencia artificial firmó una carta abierta en la que señalaban las amenazas de la IA. El documento se dirigía a las Naciones Unidas y estaba firmado, entre otros, por Elon Musk (Tesla, OpenAI), Mustafa Suleiman (Google DeepMind), Esben Østergaard (Universal Robotics) o Toby Walsh, del departamento de IA de la University of New South Wales, Australia.
“Casi todas las tecnologías se pueden usar para el bien y para el mal, y la inteligencia artificial no es diferente. Puede ayudar a abordar muchos de los problemas de la sociedad actual: la desigualdad y la pobreza, los desafíos del cambio climático y la crisis financiera mundial. Sin embargo, la misma tecnología también puede ser usada en armas autónomas”, asegura Toby Walsh. “Necesitamos tomar decisiones hoy para elegir cuál de estos futuros queremos”.
Aunque este grupo centraba su discurso en las armas que provocan daño físico directo, la inteligencia artificial se ha hecho fuerte, sobre todo, en el entorno conectado. Según el paper The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, estas amenazas de la IA se resumen en tres grandes capacidades.
- Reforzar las amenazas actuales. La inteligencia artificial facilita el uso de software malicioso por parte de grupos o personas que antes no accedían a la tecnología.
- Introducir nuevas amenazas. La IA puede explorar las vulnerabilidades de las nuevas tecnologías con facilidad y tomar el control de infraestructuras, vehículos, robots o dispositivos.
- Alterar la naturaleza y el carácter de las amenazas ya existentes. La inteligencia artificial ganará en efectividad y precisión, y reforzará el anonimato de los atacantes.
Pero también puede ser la solución
Algunas de las voces que se han alzado frente a los riesgos de la IA piden soluciones políticas. Otras, sin embargo, aseguran que la propia inteligencia artificial tiene la solución. Es decir, la seguridad y la prevención también tienen mucho que ganar de la IA.
“Si bien las organizaciones, grandes y pequeñas, parecen tomarse en serio las ciberamenazas y buscan mejorar su seguridad, la realidad es que las amenazas están siempre un paso por delante de las capacidades preventivas”, explica Chris Petersen, CTO de LogRhythm, en un análisis publicado en Forbes. “Los hackers continúan desarrollando ataques nuevos y sofisticados que apuntan a vulnerabilidades que no sabíamos que existían o que aún no han sido reparadas”.
Así, hoy, ya existe software equipado con machine learning que detecta los patrones de un ciberataque en sus inicios y puede, incluso, llegar a prevenirlo. A medida que la IA mejore en sus capacidades de análisis, reforzará la investigación de amenazas y ciberataques. En un futuro cercano, incluso se podrán encargar automáticamente de responder y atajar los ataques.
Para ello, la colaboración entre instituciones y compañías a nivel global es esencial. Como concluye el informe The Malicious Use of Artificial Intelligence, legisladores e investigadores deben colaborar estrechamente, la investigación tecnológica debe tomarse en serio los posibles usos positivos y negativos de la IA, y el debate debe difundirse y llevarse a todos los estamentos, ya que es de vital importancia para el futuro.
Imágenes | Future of life, iStock