¿Qué tan lista es la Inteligencia Artificial?

La inteligencia artificial comete errores, pero si las personas no lo reconocen, esto puede ser un peligro más real que la rebelión de las máquinas.

Cada vez confiamos más en la Inteligencia Artificial para la toma de decisiones. Sin embargo, ¿deberíamos hacerlo?

La inteligencia artificial promete tomar decisiones cada vez más importantes en el futuro. Ante esta tendencia, las personas deben estar también cada vez más conscientes sobre las limitaciones de estas tecnologías y los peligros que entraña.

A diferencia de las preocupaciones de Elon Musk sobre la posibilidad de que los humanos sean remplazados por las máquinas cada vez más tareas hasta ser relegados a gatos domésticos, las IA presenta problemas de otra índole.

Los problemas de la IA no forman parte de historias de ciencia ficción. Estos problemas son reales y, si no somos precavidos, serán cada vez más comunes.

En el New York Times, el reportero Kashmir Hill mostró que mucha de la tecnología que se utiliza en la actualidad es bastante tonta, aunque creemos que es inteligente. Y esto ha provocado problemas innecesarios a muchos individuos.

Uno de estos casos es el de Robert Julian-Borchak Williams, un hombre negro en Michigan que fue acusado de robar en tiendas. La acusación se debió a un trabajo policial defectuoso que se basaba en tecnología de reconocimiento facial defectuosa.

Robert Julian-Borchak Williams fue arrestado injustamente por problemas de la IA reconociendo rostros.

El software utilizado por la policía mostró la foto de la licencia de conducir de Williams entre las posibles coincidencias con el hombre en las imágenes de vigilancia, lo que condujo al arresto de Williams en un crimen que no cometió.

El reportero mencionó en una entrevista que la policía debe usar la identificación de reconocimiento facial solo como una pista de investigación. Pero en cambio, las personas tratan el reconocimiento facial como una especie de magia. Y es por eso que tienes un caso en el que alguien fue arrestado en base a un software defectuoso combinado con un trabajo policial inadecuado.

Pero los humanos, no solo las computadoras, identifican erróneamente a las personas en casos criminales. El testimonio de testigos ha llevado también en muchas ocasiones a problemas al reconocer el rostro de alguien. Ese ha sido un argumento de venta para muchas tecnologías de reconocimiento facial.

Sin embargo, las máquinas no reconocen rostros mejor que los humanos. Un estudio federal de algoritmos de reconocimiento facial encontró que están sesgados e identifican erróneamente a las personas de color a tasas más altas que las personas blancas.

El estudio incluyó los dos algoritmos utilizados en la búsqueda de imágenes que llevaron al arresto de Williams.

Algunas veces el algoritmo es bueno y otras es malo, y no siempre hay una buena manera de notar la diferencia. Y, por lo general, no se exige que los encargados de la formulación de políticas, el gobierno o la policía veten la tecnología.

Las compañías que venden software de reconocimiento facial dicen que no ofrece una “combinación” perfecta. Da una puntuación de la probabilidad de que las imágenes faciales en las bases de datos coincidan con la que busca. Las compañías de tecnología dicen que nada de esto es causa probable de arresto. (Al menos, así es como lo hablan con un periodista de The New York Times).

Pero en el terreno, los oficiales ven una imagen de un sospechoso junto a una foto de la coincidencia más probable, y parece ser la respuesta correcta. He visto que el reconocimiento facial funciona bien con algunas imágenes de primer plano de alta calidad. Pero generalmente, los oficiales de policía tienen videos granulados o un boceto, y las computadoras no funcionan bien en esos casos.

Se siente como si supiéramos que las computadoras tienen fallas, pero aún creemos en las respuestas que escupen.

Escribí sobre el propietario de una granja de Kansas que fue acosado por la policía y visitantes al azar debido a una falla en el software que mapea las ubicaciones de las personas desde sus direcciones de Internet. La gente pensaba incorrectamente que el software de mapeo era perfecto. El reconocimiento facial tiene el mismo problema. Las personas no profundizan en la tecnología y no leen la letra pequeña sobre las inexactitudes.