La Inteligencia Artificial debe ser ética y justa. ¿Cómo y quién lo decide?

Se habla mucho de la ética de la inteligencia artificial y su ética. Arrojamos que la IA ha de ser justa aunque luego escondemos la mano al tratar de definir la justicia por no saber describir el marco ético. Y es que no hay una única ética. Esta es más plural de lo que tenemos en mente y no es trivial.

Europa tiene una ética, la OCDE tiene otra. China tiene la suya, y Estados Unidos una cuarta. Todas se parecen, todas guardan diferencias. En lo único que estamos de acuerdo es que hace falta de forma urgente, y discutimos en todo lo demás. La discusión está en camino…

La visión de la justicia en nuevas tecnologías evoluciona

En libros como ‘Ética para las máquinas’ (2019), de José Ignacio Latorre, se entra en faena con preguntas. A la gallega. Como buen filósofo, Latorre se cuestiona cuál es la ética que dominará y, en menor medida, quién la impondrá. ¿La ética escolástica? ¿El relativismo moral? ¿Las enseñanzas de los estoicos?

Si tomamos en cuenta toda la vertiente filosófica y ética de los clásicos de la que muchos bebemos, podríamos caer en el error de dejar el movimiento feminista fuera. Pero, de usar este como base, ¿significa eso que tendremos que dejar de lado todos esos modelos que apenas usan referentes femeninos para su entrenamiento?

¿Prescindir del reconocimiento facial porque ha sido entrenado solo con caucásicos? Antes de dar los siguientes pasos y afirmar que tenemos una ética habremos de hacernos este tipo de preguntas hirientes, y tomar decisiones al respecto. Algunas ya se están consolidando (a codazos).

¿Qué hay de la cibervigilancia?

A China le parece bien si viene del estado, a Estados Unidos si ellos pueden mirar, y en Europa somos más de proteger al individuo. Aunque curiosamente la tecnología que se usa es virtualmente idéntica en todas partes.

¿Eliminamos la experimentación animal?

Ahora que  la piel humana es replicable en laboratorio, ¿violamos la ética experimental en humanos para trabajar con células vivas, o seguimos trabajando con animales? Nos va  a tocar elegir, y rápido.

¿Damos control autónomo a las máquinas?

En 2017 el Parlamento Europeo proponía un “botón de la muerte” por si acaso las IA se salen de madre. ¿Lo aplicamos? Y, de ser así, ¿les damos control sobre su propia autonomía, incluida la del combate? ¿Permitimos ciberguerras o firmamos una Prohibición de las Armas Cibernéticas como con las químicas?

Redactando la ética (desde diferentes países)

leyes etica inteligencia artificial

Todos tenemos una respuesta tajante y prácticamente inamovible al resolver las preguntas de arriba. Lo curioso es que no vamos a coincidir en muchas de ellas ni siquiera siendo del mismo país. Y si nos vamos a otras parte del mundo la divergencia aumenta.

Principios de Asilomar, de la FLI

La Future Life Institute no es una institución al uso. Fueron los primeros que lanzaron una propuesta sobre la ética a seguir por la inteligencia artificial, y lo hicieron con una marcada ideología estadounidense. Los llamados ‘Principios de Asilomar’ (California, 2017). Enlazaban política y ciencia, destacaban los valores (y control) humanos y la libertad de estos últimos.

‘Directrices por una inteligencia artificial confiable’, de la UE

Publicadas en abril de 2019, las ‘Directrices por una inteligencia artificial confiable’ fueron uno de los primeros libros blancos al respecto. Podríamos decir que beben de una vertiente católica y un poco menos helenístico desde el punto de vista moral, y que la legalidad planteada es completamente europea. De hecho el primer punto habla de derecho y legalidad.

‘Recommendation of the Council on Artificial Intelligence’, de la OCDE

Con un poco algo más abierto en materia legal pero también con una marcada moralidad occidentalizada tenemos ‘Recommendation of the Council on Artificial Intelligence’. Se presentó en mayo de 2019, pocos meses después del texto de arriba, y es una lectura algo más global, como no podía ser de otra forma. Va mucho más allá de la UE y habla del medio ambiente.

‘Principios sobre la IA de Pekín’, de la BAAI

etica china de la inteligencia artificial vigilancia

Días después de la entrega de la OCDE de su documento, la República China a través de la Academia de Inteligencia Artificial de Pekín (BAAI) presentaba sus ‘Beijing IA principles’ (Principios sobre la IA de Pekín). Estos destacan por su brevedad, pero también por la introducción de valores orientales. Adaptación, armonía, cooperación, largo plazo, son alguno de los términos a destacar.

‘Consejo de IA’ del WEF

No había pasado un día del anuncio de Pekín cuando el Foro Económico Mundial (WEF) recomendaba un consejo mundial de la inteligencia artificial que arrancaría en San Francisco (EEUU) a través de una mesa redonda y que se espera sea un hilo conductor hacia el futuro. Uno más, queremos decir, porque parece que todos los organismos buscan aportar su versión.

 

Resulta obvio que necesitamos más pronto que tarde una hoja de ruta global respecto de la IA. Una a la que se adhieran todos los países dado el poder transformador de esta tecnología. Va a tocar ceder, negociar, renunciar a unos valores, adoptar otros. Parte de nuestra cultura cambiará. Parte de nuestra cultura será adoptada por personas del otro lado del mundo.

 

En Lenovo | Solo la inteligencia artificial puede ganar la ciberguerra del futuro

Imágenes | iStock/Andrii Panchyk, iStock/bingdian, iStock/KENGKAT

Etiquetas: