Los sesgos de la inteligencia artificial son nuestros sesgos (y debemos corregirlos)

Robots rencorosos que buscan esclavizar a la especie humana. Inteligencias controladoras que quieren tomar las riendas de nuestra vida. Nos hemos imaginado mil y un futuros catastróficos para la IA. Pero, quizá, el problema resida en nosotros mismos. Mientras la inteligencia artificial avanza en ámbitos cada vez más diversos de nuestra sociedad nos estamos dando cuenta de que nuestros propios sesgos son un problema.

En los últimos años, hemos hablado de algoritmos sexistas o chatbots racistas. IAs psicópatas que copian los peores hábitos de nuestra especie. Si queremos dejar decisiones importantes en manos de la inteligencia artificial debemos afrontar este problema. Los robots pueden llegar a ser muy inteligentes, pero, de momento, siempre es una mente humana la que les dice cómo empezar a pensar.

De Norman…

Norman Bates fue creado por Hitchcock para ocupar nuestras peores pesadillas. Norman, el bot psicópata creado este año por el MIT, ha convertido la pesadilla en realidad, al menos en la esfera online. Norman no es más que un algoritmo, pero es capaz de lo peor. Y eso que es solo un experimento. Es un software de deep learning capaz de describir imágenes. Cuantas más describe, mejor se vuelve. Pero, “Norman ha estado expuesto a los rincones más oscuros de Reddit”, cuentan sus diseñadores.

sesgos de la inteligencia artificial

Una vez educado, Norman fue sometido al test de Roschach, diseñado 30 años antes de la primera inteligencia artificial. Se trata del mítico test en el que el sujeto debe decir a qué le recuerdan diferentes manchas de tinta sobre el papel. Los resultados dan miedo. Norman es un psicópata de manual. Donde una IA estándar de reconocimiento de imágenes veía un grupo de pájaros, Norman veía un hombre siendo electrocutado. Donde había flores, el psicópata del MIT veía un disparo en una cabeza humana.

A los algoritmos jueces

Desconcertante, sí. Pero no deja de ser un experimento. Uno que prueba que los datos utilizados para enseñar un algoritmo de machine learning pueden influir en su comportamiento. “Cuando la gente dice que los algoritmos de IA pueden ser parciales e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le han suministrado”, explican desde el MIT.

Los problemas, claro, llegan cuando la IA no es experimental, sino que tiene un impacto en el mundo real. Aunque no lo tengamos presentes, la inteligencia artificial se usa a diario para analizar datos o para interaccionar con humanos. Se utiliza en campos que van desde el marketing y las ventas hasta el análisis de riesgos para pólizas de seguros. Aquí los sesgos se vuelven más importantes.

En 2016, la organización ProPublica analizó el software de evaluación de riesgos COMPAS, utilizado en el sistema judicial de Estados Unidos para apoyar las decisiones de los jueces. Su análisis automático de datos contribuye a fijar las fianzas o recomendar sentencias. Por lo general, según ProPublica, el algoritmo era preciso. Pero cuando fallaba, siempre lo hacía en el mismo sentido: otorgándole mucha más probabilidad de reincidencia (el doble) a los criminales negros que a los blancos.

sesgos de la inteligencia artificial

Su sesgo, nuestros sesgos

La idea de fondo es positiva: dejemos el análisis en manos de máquinas porque serán más imparciales que los humanos. Sin embargo, cuando más lo probamos, más nos damos cuenta de la influencia de los prejuicios y las desigualdades humanas sobre la inteligencia artificial.

“Si bien un algoritmo de machine learning está diseñado para repetir procesos hasta poder prácticamente tomar decisiones por sí mismo, si de origen, sus datos están sesgados o mal documentados, la máquina corre el riesgo de cometer errores o reflejar vicios no deseados, propios de los humanos”, explican investigadores del Instituto Tecnológico de la Laguna, en México, en su paper Inteligencia Artificial, Problemas Relajados y Sesgos de Información.

Así, como sostienen también los creadores de Norman y otras investigaciones, el problema no está en el algoritmo. La mente artificial no está sesgada en origen. Sino que son los datos que le otorgamos los que vienen cargados de prejuicios. Por eso los traductores automáticos de español a inglés siempre identifican el sujeto como masculino. O los softwares de reconocimiento de imagen conectan ojos cerrados con personas de origen asiático.

sesgos de la inteligencia artificial

¿Qué podemos hacer?

Todos estos experimentos han demostrado que introducir sesgos en la inteligencia artificial es fácil. Así, es lógico pensar que cuanto más se extienda su uso y se democratice el acceso a software de IA, más probabilidades habrá de que existan inteligencias robots cargadas de prejuicios. Para evitarlo, se manejan varias soluciones.

Por un lado, desde el sector tecnológico, empresas como Microsoft y Facebook trabajan en diseñar herramientas que detecten sesgos en los algoritmos. Su estrategia pasa por dejar la imparcialidad de la IA en manos de la IA. Y, como explican desde Microsoft en MIT Technology Review, “educar a sus trabajadores para que conozcan la gran cantidad de vías con las que los sesgos pueden surgir y manifestarse, y para que creen herramientas para que los modelos sean más fáciles de entender y que el sesgo sea más fácil de detectar”.

Por otro, algunas investigaciones se han centrado en el factor humano y en los conjuntos de datos que alimentan la inteligencia artificial. ¿Cómo es posible que los datos, los números, estén sesgados? Porque representan una sociedad, unas instituciones y unos poderes que no son igualitarios. Son el reflejo de un mundo cargado de sesgos y desequilibrios.

sesgos de la inteligencia artificial

Los datos y el mundo

“Debemos construir conjuntos de datos para IA prestando atención a los factores sociales. Específicamente, se deben tomar medidas para garantizar que dichos conjuntos de datos sean diversos y que no representen a grupos particulares”, sostienen James Zou y Londa Schiebinger en este artículo publicado en Nature. Es decir, ser conscientes de dónde puede estar la fuente de sesgos en los datos y corregirla.

Pero los problemas no se acaban aquí. Y es que los datos disponibles para entrenar a los algoritmos son limitados. Hoy por hoy, por ejemplo, la mayoría de inteligencias que analizan imágenes se entrenan con la base de datos de ImageNet que contiene más de 14 millones de fotografías. En ellas, casi la mitad de las personas que salen son de Estados Unidos.

Un mundo lleno de sesgos. Datos que los reflejan e introducen nuevos sesgos. Inteligencias artificiales con relativa facilidad para asumir los prejuicios. El problema se extiende por varios frentes. Resolverlo parece vital para el futuro de la IA y de nuestra relación con ella. Quizá, si fuésemos un mudo equilibrado y sin prejuicios no estaríamos hablando de esto.

Imágenes | Pixabay, iStock, MIT