Dejen de usar la IA para reafirmar prejuicios

Un arresto injusto y un supuesto algoritmo para identificar tendencias criminales nos alertan sobre los peligros de trasladar nuestros prejuicios a la IA.

Un arresto injusto y un supuesto algoritmo para identificar tendencias criminales nos alertan sobre los peligros de trasladar nuestros prejuicios a la IA.

En el siglo XIX, cuando los escritores imaginaban un mundo automatizado, consideraban que ciertas tareas las máquinas las harían mucho mejor que los humanos. Como jugar ajedrez, por ejemplo.

Escritores como Edgar Allan Poe consideraron que la mente maestra detrás del turco ajedrecista (un autómata que supuestamente sabía jugar ajedrez) debía ser un humano porque si fuera una máquina, esta jamás perdería una partida.

Hay tareas que las máquinas pueden ejecutar sin posibilidad de error, como realizar cálculos matemáticos complejos. Sin embargo, no son infalibles como en ocasiones nos gustaría creer. Las personas deberán estar cada vez más conscientes de esto conforme utilicemos cada vez las máquinas para tomar decisiones importantes.

¿Las máquinas son mas justas?

En el cuento de ciencia ficción del escritor y físico ruso Anatoly Dneprov, La máquina CE, modelo número uno, un grupo de vagabundos comentan sobre las cosas sorprendentes que pueden hacer ahora las máquinas. Uno señala que ya hay máquinas capaces de determinar si una persona es culpable con tan solo hacer algunas preguntas azarosas y sin aparente relaciòn, donde el acusado responde nada más sí o no.

En la actualidad, tenemos algunas máquinas que hacen trabajos similares, pero los resultados no han sido completamente satisfactorios. Los mismos desarrolladores saben que sus invenciones requieren aún de perfeccionamiento y que la calidad de sus análisis depende mucho de la calidad de los datos que les proporcionan.

Sin embargo, esto no lo ha tenido en cuenta ni siquiera los policías que usan esta herramienta. En enero de este año, Robert Julian-Borchak Williams, un hombre de color del condado de Wayne (Detroit), fue arrestado injustamente tras ser identificado erróneamente por un algoritmo.

Williams apareció entre los resultados de la policía cuando buscaron posibles sospechosos en una base de datos analizada por la IA y la policía lo arresto solo con esa prueba, aunque DataWork Plus, la compañía que desarrolló el software, ya había advertido que su sistema de identificación no era infalible.

El caso de Williams mostró que la IA está lejos de resolver los problemas de sesgos raciales o los errores en la identificación de sospechosos. Al contrario, parece agravar estos problemas.

Reafirmando prejuicios raciales

En un revival de la pseudociencia de la frenología, software de reconocimiento facial ha sido utilizado supuestamente para calcular la tendencia a la criminalidad de una persona.

Springer planeaba publicar los resultados de una investigación relacionada con esta tecnología. Sin embargo, expertos en IA de la Coalición para la Tecnología Crítica se opuso a esto y llamó a no validar este ni otro estudio similar en el futuro.

El argumento de esta coalición se basa en que cualquier investigación de este tipo estará forzosamente sesgada porque los datos ya están sesgados desde un principio, pues el sistema de justicia de Estados Unidos suele ser más duro con las personas de color que con los blancos.

Si omitimos este hecho, corremos el riesgo de validar los prejuicios sociales ya existentes.

IA aún necesita mejorar

Los investigadores creyeron que sería sencillo para una máquina identificar los mejores movimientos de una partida de Ajedrez únicamente con cálculos. Después tuvieron que descubrir que esto no era tan sencillo.

Los primeros programas de ajedrez no podían vencer ni a los jugadores novatos. Sin embargo, tras más de 30 años de investigación, una computadora pudo vencer a un campeón del mundo en ajedrez. Después de esto, las computadoras ya son prácticamente imbatibles en el juego.

De la misma manera, debemos reconocer que la actual IA está a penas aprendiendo a trabajar con una gran cantidad de datos. Faltan muchos años para que mejore. Ojalá en ese tiempo, aprendamos a liberarnos de nuestros preuicios.