Se ha escrito un crimen y la Inteligencia Artificial tiene algo que decir

Las investigaciones criminales suelen ser una de las áreas en las que más innovación se aplica. Nuevas técnicas, nuevos enfoques, aplicación de nuevas tecnologías. Basta recordar el caso del asesinato de Diana Quer: los investigadores de la Guardia Civil terminaron de localizar a su asesino gracias al trabajo de unos ingenieros de Vigo, capaces de identificar el vehículo por la estela de sus faros en una gasolinera.

Con el advenimiento de la Inteligencia Artificial, surgen cuestiones sobre si estos algoritmos pueden, por un lado, predecir que se va a cometer un crimen y, por otro, si serían capaces de juzgarlo de manera más precisa y justa que los humanos.

COMPAS, ¿la herramienta que ayuda a cerrar el círculo?

En Estados Unidos se emplea, desde hace años, COMPAS, una herramienta de evaluación de riesgos. Desarrollada por Northpointe, no está exenta de polémica, puesto que los demandados no pueden cuestionar sus resultados y las agencias gubernamentales no pueden tampoco analizar el proceso de toma de decisiones.

Se supone que esta herramienta sirve a los jueces para que decidan si un acusado debe permanecer en la cárcel o si, a la espera de juicio, puede estar en la calle. Para ello, el sistema cruza datos históricos del acusado con otros parámetros para predecir la probabilidad de que sea arrestado por un nuevo delito durante el período en el que espera el juicio. Es decir, establece un análisis de riesgo sobre cada acusado.

¿Puede un algoritmo ser racista?

Quienes defienden su uso consideran, sin embargo, que esta evaluación de riesgos logra que el sistema legal penal sea más justo al ser elaborado por una máquina y no una persona.

En estos datos no se incluye, en teoría, la raza. Pero ya en 2016 una investigación de ProPublica argumentó que la herramienta todavía estaba sesgada contra las personas de raza negra: entre los ​​que nunca fueron arrestados, los acusados ​​negros tenían el doble de probabilidades que los blancos de haber sido etiquetados como de alto riesgo por COMPAS.

Esta herramienta se basa, como hemos dicho, en datos. Mirando las cifras, se constata que las personas de raza negra son más detenidas que las de raza blanca. Por tanto, el algoritmo interpreta que su riesgo de cometer delito estando libres será mayor. Pero, de nuevo, las voces críticas contra este tipo de utilidades  aluden a que habría que indagar por qué los de una determinada raza son más frecuentemente detenidos que el resto y si, en estas decisiones realizadas por los humanos, hay sesgos que, corren el riesgo de perpetuarse con la Inteligencia Artificial.

La máquina que opina lo mismo que el humano

Muchas veces se insiste en que la tecnología no es mala per se. En el caso de la IA, cabe recordar que trabaja con datos y que, si estos no son buenos, los resultados de esta tecnología tampoco lo serán. Otro estudio demostró que las personas pueden predecir si un acusado criminal volvería a sería condenado en el futuro con una precisión de aproximadamente el 67 por ciento. Una tasa prácticamente idéntica a COMPAS.

Es más, los investigadores aseguran que esta coincidencia de las predicciones de los algoritmos y de gente escogida al azar es igual de precisa teniendo en cuenta solo dos datos (COMPAS pondera al menos 6): la edad del acusado y las condenas anteriores. ¿De quién es la culpa, entonces, de la tecnología o de quienes la han configurado?

Los autores del informe aseguran que su único interés fue evaluar la precisión del algoritmo. “Necesitamos probar estas herramientas para asegurarnos de que funcionan como esperamos», dijo Julia Dressel, una de las investigadoras.

Lo primero que hay que regular: el sesgo

Precisamente para evitar reforzar aún más estos sesgos, se propuso el año pasado la Ley de Responsabilidad Algorítmica, que busca regular el sesgo en los sistemas automatizados de toma de decisiones. Esta normativa propone, básicamente, que las compañías auditen sus sistemas de aprendizaje automático en busca de sesgos y discriminación.

Evidentemente, se insta a estas compañías a que tomen después las medidas oportunas para corregir las incidencias detectadas. Deben hacer esta auditoría no solo en los algoritmos en sí, sino en todos los procesos que involucran datos confidenciales, como información de identificación personal, biométrica y genética, para riesgos de privacidad y seguridad.

Como ya han demostrado otras investigaciones, que algo esté basado en datos no quiere decir, en modo alguno, que sea justo ni equitativo.