LT Domingo | «Los pasos adelantados de las científicas chilenas»

Comenta Claudia López

LT Domingo | «Los pasos adelantados de las científicas chilenas»

21 de enero de 2024

Por: Andrés Gómez y Pablo Marín | Imagen: LT Domingo | Fuente: LT Domingo

De la física de partículas a la detección de cardiopatías prenatales con IA; de la formación de los planetas al uso de la robótica educativa, seis mujeres dedicadas a la investigación en Chile coincidieron en el Congreso Futuro, donde procuraron acercar al gran público los alcances de un trabajo que habitualmente no tiene gran resonancia en los medios. También, consultadas por La Tercera, abordaron los desafíos disciplinares y los sesgos de género, que no dejan de estar presentes en sus respectivos ámbitos.

(…)

Claudia López: «Las IA pueden reproducir discriminaciones históricas»

Si la IA es desarrollada por seres humanos, la IA no es neutra, piensa Claudia López. Ingeniera informática de la U. Federico Santa María (USM) y doctora en Ciencias de la Información por la U. de Pittsburgh, la investigadora del Centro Nacional de Inteligencia Artificial dice que “es razonable alejarse de la idea que las IA son solo técnicas: son sociotécnicas, suceden en un contexto social, las hacemos y usamos personas”. Convencida de que el ser humano debe ser el centro de la tecnología, se ha especializado en la investigación en torno a las relaciones entre personas e inteligencias artificiales. Y subraya el plural: “No hay una, hay muchas inteligencias artificiales”.

En su trabajo ha puesto especial atención a las limitaciones de las IA. “Las IA que utilizan maching learning aprenden de los datos del pasado, y pueden producir modelos que reproduzcan las discriminaciones históricas de género, socioeconómicas, etc.”, dice. “Hay suficiente evidencia de IA que han generado daño”, agrega.

Menciona sistemas de selección de personal automatizados en Estados Unidos que discriminaban mujeres, o modelos utilizados en el sistema de justicia que buscaban predecir el nivel de reincidencia criminal. “El algoritmo les sugería a los jueces el nivel de riesgo de reincidencia. Y se demostró que el algoritmo sobreestimó el nivel de riesgo de las personas de piel oscura. Eso respondía a que en Estados Unidos se encarcela más a gente de piel oscura. También se han dado casos de discriminación en sistemas de reconocimiento facial: gente de piel oscura detenida por una mala identificación de la máquina”.

A partir de esas experiencias se han establecido auditorías algorítmicas y se han creado estrategias de mitigación. Claudia López resalta la necesidad de evaluar y avanzar en procesos de retroalimentación. “Si la IA aprende formas de discriminar, vamos a permitir nuevas injusticias, y eso podría dificultar el acceso en igualdad de condiciones a la educación, el trabajo o la salud”.

En este sentido, la investigadora considera esencial la transparencia de los datos y el rol de la ciudadanía, no solo de las autoridades. “Los usuarios pueden ayudar a moldear las IA. El rol de la ciudadanía es esencial para decidir cómo vamos a utilizarla”.

LT Domingo | «Los pasos adelantados de las científicas chilenas»