Desde el Chat GPT, los anuncios publicitarios, la voz de Siri, o las recomendaciones de plataformas para ver series y películas, la inteligencia artificial (IA), ocupa grandes espacios de la vida cotidiana. Sin embargo, poco se habla sobre los sesgos de género que reproducen este tipo de algoritmos.
Desde hace años, Grow, género y trabajo investiga la problemática de la desigualdad en el ámbito de la tecnología. En diálogo con Nota al Pie, Georgina Sticco, directora y co-fundadora de la ONG, expresó que “es súper importante reflexionar sobre inteligencia artificial y la falta que tiene en relación al enfoque de género”.
¿Es la IA parcial u objetiva?
Sticco explicó que “hoy estamos transitando nuestras vidas conviviendo con un montón de algoritmos desarrollados desde un punto de vista neutro y que, sin embargo, no hacen más que replicar los sesgos de género de quienes desarrollaron estas tecnologías”.
Para la directora de Grow, “no podemos nunca pensar que las tecnologías son neutras porque siempre fueron creadas por personas que han tenido un imaginario sobre cómo funciona la sociedad”. Al respecto, asegura que “lamentablemente este imaginario luego se reproduce”.
Otres especialistas también han estudiado está problemática a lo largo del mundo. Tal es el caso de Gemma Galdón, doctora en Políticas Tecnológicas y auditora de algoritmos, quien asegura que “la IA siempre está limitada por el pasado, no puede generar cosas nuevas”. Además, explica que “solo puede elaborar patrones en base a los datos que se han dado de entrenamiento, con lo cual es una fuerza terriblemente conservadora”.
En este sentido, podría pensarse que las respuestas son sesgadas porque los datos también lo son. Josep Curto, director del máster de IA en la universidad catalana UOC, indicó que “la IA funciona mediante el uso de algoritmos y técnicas matemáticas, que permiten extraer patrones de grandes cantidades de datos”. Según sus palabras, ese aprendizaje “no es representativo y siempre tiene una visión parcial de la realidad”.
La falta de paridad en ciencia y tecnología
Según el informe “El futuro del trabajo en América Latina y el Caribe”, del Banco Interamericano de Desarrollo (BID), la brecha de género en el mercado laboral es un hecho persistente en la mayoría de los países del mundo. “En América Latina más mujeres trabajan en ocupaciones peor pagadas, en trabajos de cuidados no remunerados y tienen una menor participación en los campos de CTIM (relacionados con ciencia, tecnología, ingeniería y matemáticas) que los hombres”, afirmó.
A su vez, la Organización de las Naciones Unidas (ONU) advirtió que a nivel mundial solo 1 de cada 3 investigadores son mujeres. El informe detalla que un sector crítico es el de la IA, donde el número de trabajadores en todo el mundo con habilidades en la temática aumentó en un 190%, pero la presencia femenina es minoritaria: alrededor de un 22%.
En ese sentido, Georgina Sticco coincide con esta diferencia en el mercado laboral y explica que el sesgo en la IA “tiene que ver con que hay pocas mujeres desarrollando inteligencia artificial y solamente representan el 12% de las programadoras”. Para la directora de Grow, además, “también tiene que ver que quienes desarrollan estos programas no tienen este enfoque de género instaurado por el cual hacerse las preguntas correctas para encontrar los riesgos que quizás tienen sus desarrollos”.
Para combatir esta desigualdad, Sticco señaló que “es sumamente importante generar las formaciones necesarias para que quienes estén desarrollando se apropien de este enfoque de género y puedan incluirlo en aquellas cosas que realizan”. De no hacerlo, para la representante de Grow “estamos generando un mundo muchísimo más desigual del que partimos”.
Indagar la tecnología que nos rodea
Meses atrás, investigadores españoles dieron a conocer trabajos sobre el alcance de la IA. Para conocer el problema, les científiques analizaron trabajos anteriores que identificaban sesgos de género en procesos de datos en cuatro tipos de IA.
Tras la investigación, advirtieron que los diseñadores de los sistemas de IA incluyen sesgos en todas las fases del proyecto: desde la preparación de los datos hasta la exposición de resultados. Juliana Castañeda Jiménez, una de las investigadoras, explicó que “si se usan datos históricos y no están equilibrados, probablemente se verá un condicionamiento negativo relacionado con demografía negra, gay e incluso femenina”.
Dentro de los principales resultados, les investigadores encontraron que todos los algoritmos identifican y clasifican mejor a los hombres blancos. Además, observaron que reproducían creencias falsas sobre cómo deberían ser los atributos físicos que definen a las personas según su sexo biológico, origen étnico o cultural u orientación sexual. También asociaban de forma estereotipada la masculinidad con las ciencias y la feminidad con el arte.