Por Mora Zaballa

La inteligencia artificial forma parte de la vida cotidiana hace décadas, pero recién a partir del surgimiento de Chat GPT 4.0, la Inteligencia Artificial Generativa de Open AI, comenzó a estar presente en la discusión pública. La Agencia de la Unión Europea para Cooperación Policial (Europol) realizó un informe en enero de este año en el que prevé que, para 2026, hasta el 90 por ciento de todo el contenido online podría haber sido generado o manipulado por la IA. Teniendo en cuenta esa proyección, vale preguntarse por los peligros que vienen de la mano de estas tecnologías, como la perpetuación y amplificación de sesgos de género que erosionen los avances del feminismo de los últimos tiempos.

LOS MOTIVOS DEL SESGO

La IA funciona a partir de inputs y outputs. Los primeros son aquellos datos que se da a los sistemas para entrenarlos y en base a los cuales buscan patrones, etiquetan y dan respuestas. “Si estos datos son escasos o contienen errores, es natural que la IA reproduzca esos sesgos”, explica el ingeniero informático especializado en IA Matías Karlsson. El sistema genera sesgos justificados por los patrones que encuentra en el material ingresado. “Las IA aprenden del contenido que generamos los humanos, y nuestros propios sesgos pueden infiltrarse en los datasets“, amplía el especialista.

A partir del creciente uso de estos sistemas para contenido online, “existe el riesgo de que los sesgos de género se amplifiquen y perpetuen“. A futuro, esto puede significar “reforzar estereotipos dañinos, discriminar en procesos de selección y decisión y reducir la visibilidad y representación de estas personas en diversos ámbitos”, indica Karlsson, por lo que se estarían vulnerando sus derechos.

Eso fue lo que sucedió con la empresa de comercio electrónico Amazon. La corporación de Jeff Bezos desarrolló en 2014 un sistema de IA para revisar el currículum de los candidatos y darles un puntaje para seleccionarlos. Al poco tiempo, detectaron que el sistema no era neutral, dado que había aprendido de los datos de contratación de los anteriores diez años de la empresa, cuando el campo tecnológico estaba dominado por hombres. De esta manera, la máquina aprendió a elegir a candidatos varones.

De allí la importancia de los datos que se recolecta, analiza y utiliza para desarrollar las IA y de quienes integran los equipos que toman las decisiones y llevan a cabo esta tarea. La poca representación de mujeres y otros grupos marginados en el proceso creativo conduce a una dominación por parte de quienes tienen acceso a este campo, que se proyecta que va a ser cada vez más grande.

Las carreras STEM –Ciencia, Tecnología, Ingeniería y Matemática– fueron históricamente ocupadas por hombres. Si bien la Unesco afirma que en América Latina las mujeres representan el 45 por ciento de los investigadores científicos, uno de los porcentajes más altos alcanzados por una región, siguen siendo subrepresentadas en los niveles más altos de estas profesiones. Además, deben atravesar desafíos a la hora de acceder a empleos y continúan siendo víctimas de la brecha salarial entre hombres y mujeres.

Promover la diversidad en posiciones directivas, una solución al sesgo de género.

LA SOLUCIÓN

Es crucial que las herramientas de IA sean transparentes y que se promueva la rendición de cuentas en su uso y desarrollo”, afirma el ingeniero. Si bien los especialistas están de acuerdo en que el sesgo de género es casi inevitable, la posibilidad de minimizar sus efectos es significativa. El foco debe ponerse en promover la diversidad en posiciones directivas con poder de decisión sobre los datos a recolectar y la manera de analizarlos, así como también en adoptar “prácticas de desarrollo ético que incluyan la limpieza y el balanceo de datos, la implementación de auditorías regulares para detectar sesgos y la colaboración con expertos en diversidad e inclusión”, agrega Karlsson.

Esto no es posible sin entender que las IA no son tecnologías neutrales. Sobre esa base debe capacitarse a profesionales de STEM en perspectiva de género y fomentar la educación de mujeres y personas LGBTI+ en estas carreras. Los sistemas de aprendizaje automático pueden ser tanto herramientas de lucha contra la desigualdad como tecnologías perpetuadoras de los prejuicios y preconceptos de la sociedad. Empezar a usarlas con el primer fin es una responsabilidad que solo se puede asumir si se toma una decisión consciente de hacerlo. “Es igualmente antiético tomar datos incorrectamente como no proporcionar suficientes datos para el entrenamiento, ya que ambos escenarios pueden generar y perpetuar sesgos”, compara Karlsson.

EL CASO AYMURAI

Frente a este panorama, aparecieron equipos de mujeres que buscan utilizar la IA para promover la igualdad de género y abordar los sistemas desde una perspectiva feminista. Yasmín Belén Quiroga es abogada y analista de datos especializada en género. En 2020 fundó DataGénero, el primer observatorio de datos con perspectiva de género de América Latina, junto a Ivana Feldfeber, diplomada en Ciencias de Datos. Esta organización garantiza la planificación, recolección y análisis de datos que tengan en cuenta los intereses y las problemáticas que enfrentan las mujeres y personas LGBTI+.

En 2022 crearon AymurAI, una IA que permite abordar la falta de datos sobre violencia de género en el sistema judicial. La iniciativa se implementó en el Juzgado 10 de la ciudad de Buenos Aires, conducido por Pablo Casas, y su principal función es extraer de las sentencias y resoluciones judiciales información relevante para identificar patrones que puedan anteceder a un delito más grave para intentar prevenirlo.