¿Estamos matando la Inteligencia Artificial antes de que nazca?

Genera tanta expectación como miedo, tanta fascinación como rechazo. Incluso visionarios y líderes de opinión como Elon Musk han pedido recientemente regular el avance de la Inteligencia Artificial (IA). Antes también lo hicieron otros nombres como Bill Gates o Stephen Hawking.

¿El argumento? Que pueden ser armas de destrucción masiva que acaben con la humanidad tal y como la conocemos.

Hasta hace no mucho, se pensaba que alcanzar un importante desarrollo de la IA era algo de ciencia ficción o que nos llevaría siglos. Sin embargo, gracias a los recientes avances, muchos hitos de la IA, que los expertos aseguraron hace sólo cinco años que tardarían décadas en cumplirse, han sido alcanzados. Por eso, muchos expertos creen que la posibilidad de tener superinteligencia puede ser algo que veamos las actuales generaciones.

La IA no es tan nueva como parece

La pregunta de si una máquina puede pensar ha estado siempre en la informática. Alan Turing propuso en 1950 que se pudiera enseñar una máquina como a un niño. John McCarthy, inventor del lenguaje de programación LISP, acuñó el término “inteligencia artificial” en 1955.

Cuando los investigadores de la IA en los años sesenta y setenta empezaron a usar ordenadores para reconocer imágenes, traducir entre idiomas y entender instrucciones en lenguaje normal y no sólo en código, la idea de que las máquinas podrían desarrollar la habilidad de hablar y pensar estuvo en el aire.

Incluso las películas de ciencia ficción (como Una odisea del espacio o WarGames) han explorado estas ideas.

Como explica Leandro Núñez, socio del despacho de abogados Audens, en realidad la Inteligencia Artificial está en mucha de las prestaciones que estamos utilizando ya. “Cuando Google Maps te indica cómo llegar a un sitio, es Inteligencia Artificial; pero solo lo llamamos así cuando algo está aún en desarrollo”, asegura.

Las razones por las que hablamos de IA

Si la Inteligencia Artificial como tal no es nueva, ¿por qué hablamos tanto de ella? Algunas razones pueden estar en que empieza a tener un desarrollo bastante importante. Y hay ciertos números que nos invitan a pensar que es algo importante.

Por ejemplo, en 2020, el 85 por ciento de las interacciones con los clientes serán gestionadas sin un ser humano, lo que hace que IA será un mercado de 5.050 millones de dólares en ese año (y eso que en la actualidad hay 5.400 millones de dólares invertidos en empresas de nueva creación relacionadas con esta tecnología).

Pero, sin duda, uno de los mayores ejes de conflicto está en el asunto laboral. Se calcula que al final de la década, la IA reemplazará el 16 por ciento de los empleos estadounidenses.

¿Debemos legislar la Inteligencia Artificial por todos los efectos que puede conllevar en la sociedad? “Es un tema más político que jurídico”, argumenta Leandro Núñez. Este abogado considera que, en lo que a la polémica laboral se refiere (sobre si crean o destruyen puestos de trabajo), se trata de una evolución.

Argumentos a favor y en contra

Críticos como el pionero de la robótica Rodney Brooks dicen que las personas que temen a la IA no entienden bien lo que los ordenadores están haciendo cuando decimos que están pensando o siendo inteligentes.

Pero para quienes defienden este miedo como algo legítimo, hay varios argumentos de peso. Por ejemplo, que sean unas minorías las que están trabajando en inteligencia artificial. No en vano, son estas minorías las que están estableciendo las reglas, que se aplicarán a las máquinas que diseñen.

¿Comparten estas personas la misma ética que el resto de la humanidad? ¿Son conscientes del poder que van a dar a las máquinas? No se trata sólo de inteligencia artificial, sino que las empresas de tecnología están trabajando para tener máquinas super-inteligentes que tendrán la capacidad de pensar por su cuenta y tomar decisiones.

El poder de persuasión

Otro de los temores que hay es el hecho de que las máquinas puedan llegar a ser tan inteligentes que puedan alterar incluso los deseos de las personas. Es decir, que sean tan persuasivas que incluso puedan incitarnos a hacer cosas que en principio no querríamos.

“La Inteligencia Artificial se nutre de datos e información que se le va proporcionando. Por tanto, alguien tiene que programarla”, explica Leandro Núñez. Es decir, que incluso en situaciones extremas (como inducir a un suicidio), “la responsabilidad sería del que ha programado esa máquina. Desde un punto de vista jurídico, no habría que modificar nada, porque ya está contemplado cómo proceder en estos casos”.

Por este motivo, este abogado no cree que sea necesario introducir ninguna norma ni modificar las actuales leyes para protegernos de los posibles efectos adversos de Inteligencia Artificial. “Si sobrerregulamos corremos el peligro de quedarnos atascados y no avanzar”, sentencia.

Quién domina a quién

Al final, el miedo es que las máquinas puedan controlar a los humanos. La inteligencia permite el control: los humanos controlan los tigres no porque seamos más fuertes, sino porque somos más inteligentes. Esto significa que si cedemos nuestra posición como los más inteligentes en nuestro planeta, es posible que también podamos ceder la posición de control.

Pero los temores de que las máquinas se vuelvan incluso independientes de los hombres está ahí. El reciente caso de Facebook, que apagó una máquina de inteligencia artificial porque se estaba inventando su propio lenguaje, no hace si no dar la razón a quienes tienen estos temores. “Creo que todavía es un planteamiento de ciencia ficción”, reconoce este abogado experto en nuevas tecnologías. “La Inteligencia Artificial existe, pero está muy encauzada y su capacidad depende siempre del programador, por lo que la supervisión humana está garantizada”.

Y pone otro ejemplo más mundano. “Si se escapa un perro y te muerde, las leyes determinan que el responsable es el propietario del perro. Con la Inteligencia Artificial pasa lo mismo”.

Entre el avance y el derecho

En relación al tratamiento de los datos, el año que viene entra en vigor una nueva normativa europea que protegerá los datos que estén individualizados. “El objetivo es que la informática no afecte a nuestros derechos y libertades”, argumenta este Leandro Núñez.

Esta nueva legislación europea vendrá acompañada de la modificación de la nacional, que está en tramitación. “Es algo necesario, porque la realización de perfiles – incluso cuando son anónimos- puede conllevar riesgos si tienen alguna repercusión: si nos deniegan un crédito o un seguro de vida”, detalla.

Por tanto, el quid de la cuestión está siempre en encontrar el equilibrio entre el avance tecnológico, la ética y el respeto de los derechos de las personas.

Etiquetas: