Un niño le cuenta sus problemas en el cole a Alexa. Un juez decide la responsabilidad de un coche autónomo en un atropello intencionado que ha evitado un accidente de consecuencias catastróficas. Las armas deciden por sí mismas a quién eliminar. Una de estas tres situaciones ya es real. Las otras dos son más que posibles en el futuro cercano. ¿Pueden las decisiones tomadas por sistemas amorales tener consecuencias éticas? El debate está abierto y es hora de dejar de mirar para otro lado.
Más allá del pesimismo y el optimismo
La inteligencia artificial nos salvará de todas las miserias humanas. La inteligencia artificial nos dominará y acabará con la sociedad humana tal y como la conocemos. La discusión alrededor del futuro de la IA, polarizada a nivel mediático por Mark Zuckerberg (optimista) y Elon Musk (catastrofista), tiene una amplia gama de grises.
Los sistemas autónomos e inteligentes, todavía en pañales, nos están poniendo ante grandes dudas éticas y también sociales. La robótica desplazará una buena parte de la mano de obra humana. El Internet de las Cosas pondrá en riesgo la privacidad del individuo. Las redes sociales son ya un altavoz de odio e informaciones falsas. Pero los robots y los dispositivos conectados también nos facilitan la vida y Twitter y Facebook permiten conversaciones globales antes imposibles.
¿Qué hacemos entonces? La tecnología, humana, tiene siempre más de una cara. Y está en nuestra mano hacer que su desarrollo se mantenga dentro de unos límites éticos. Esto es lo que han pensado los 250 expertos detrás del proyecto Ethically Alligned Design. Liderados por el Institute of Electrical and Electronics Engineers (IEEE) mentes destacadas del mundo de la tecnología, las leyes, las ciencias sociales, los negocios o la filosofía trabajan en desarrollar una serie de recomendaciones para afrontar las implicaciones éticas y sociales de la tecnología, en general, y la inteligencia artificial en particular.
Cinco principios incuestionables
“Los sistemas futuros de inteligencia artificial tendrán un potencial de transformación en el mundo similar al que tuvo la agricultura o la revolución industrial, el cual podría generar niveles de prosperidad sin precedentes. Sin embargo, no existen garantías de que este desarrollo vaya a ser positivo”. Así resumen parte de sus dudas los expertos. Las posibilidades parecen muchas. Alcanzar un resultado positivo para todos depende de nosotros.
De esta forma, el informe, abierto al debate y lejos aún de su versión definitiva, aborda multitud de cuestiones concretas. Por ejemplo, dedica más de 30 páginas a profundizar sobre las implicaciones éticas de las armas autónomas. Por encima de todo, en su búsqueda de dirigir el desarrollo tecnológico del futuro hacia el beneficio del mundo y los seres humanos, los expertos establecen cinco grandes principios. Cinco líneas rojas, como si de las leyes de la robótica de Asimov se tratasen, que siempre deberíamos tener presentes.

Respeto a los derechos humanos
La barrera número uno la forman los derechos humanos, un límite que, por desgracia, ya nos hemos saltado muchas veces sin ayuda de la robótica ni la tecnología. Sin embargo, desde el informe Ethically Alligned Design, consideran que son la mejor base para asegurar una buena relación entre inteligencia artificial y sociedades humanas.
Entre otras cosas, los expertos creen que es necesario:
- Establecer estándares y órganos regulatorios que vigilen el desarrollo de la IA
- Traducir las obligaciones legales de las sociedades actuales al mundo de la inteligencia artificial
- Asegurar que la IA siempre está sometida al control y al juicio humano, y nunca al revés
Priorizar el bienestar
El desarrollo de los sistemas autónomos e inteligentes debería de ir acompañado de una serie de objetivos de bienestar. No solo en lo que se refiere a mantener la estabilidad económica de las sociedades humanas, sino dirigidos a proteger el medio ambiente y las relaciones sociales. Así, se conseguiría que el desarrollo tecnológico estuviese siempre acompañado de la mejora de la situación del planeta y los seres que lo habitan.
Definir la responsabilidad
Es, sin duda, una de las cuestiones más espinosas dentro de las implicaciones legales de la inteligencia artificial. Si es el propio coche el que toma las decisiones en la carretera, ¿a quién hacemos responsable si hay un accidente? Para ello, el informe recomienda:
- A legisladores: que se pongan a trabajar para clarificar aspectos como la responsabilidad, las obligaciones o la rendición de cuentas. La industria debe saber a qué atenerse.
- A desarrolladores: que tengan en cuenta la diversidad de leyes, normas y principios culturales que existen en el mundo.
- Al resto de grupos implicados: sociedad civil, fabricantes o gobiernos deberían colaborar para crear y recomendar normas allí donde no las haya.
- Registrar la actividad de la IA. Para los expertos, se hace necesario tener acceso a los datos de los sistemas autónomos que aclaren su intencionalidad, cómo funcionan o cómo interaccionan con el usuario humano.
Transparencia
Profundizando en el acceso a los datos, el informe señala que las operaciones de los sistemas autónomos deben ser transparentes. Es decir, en caso de que se produzcan problemas legales, conflictos de intereses o incidentes con los usuarios, debe ser posible acceder a estos sistemas complejos para poder entenderlos y decidir en consecuencia. “Se deben desarrollar nuevos estándares que describan niveles medibles y comprobables de transparencia para que los sistemas puedan ser evaluados objetivamente”, puntualizan los expertos.
Abuso y mal uso de la tecnología
¿Cómo reforzar los beneficios del desarrollo tecnológico y reducir los riesgos de un uso malintencionado del mismo? Para los expertos, la concienciación es clave. Un mundo consciente de los usos negativos de una determinada tecnología reaccionará más rápido y con mayor seriedad ante el mismo. Como sucede, por ejemplo, con los bulos y las fake news en las redes sociales, conocer su existencia y cómo ciertos grupos se pueden beneficiar de ella, nos ayuda a no caer en el engaño (al menos, no siempre).
Así, los principios generales del informe cierran con tres recomendaciones:
- Educar en ética y seguridad para sensibilizar a la sociedad sobre los riesgos de un mal uso de la tecnología
- Implicar a las personalidades con mayor credibilidad en el debate y darle la máxima difusión posible
- Educar a gobiernos y legisladores para que la sociedad en su conjunto se enfrente a los desafíos de forma clara, dejando a un lado miedos o confusiones sin fundamento
La tecnología nos ha permitido un desarrollo sin precedentes. Sin embargo, este desarrollo ha importado muchos de los males que llevan lastrando a la sociedad humana durante siglos. La desigualdad y el impacto severo en el medio ambiente están lejos de solucionarse. El desarrollo que está por venir y la inteligencia artificial podrían ayudarnos a ser un poquito mejores. O no. Por sí sola, la tecnología no hará ni el bien ni el mal. Está en nuestra mano convertirla en aquello que queremos.
Imágenes: IEEE, iStock