EDIA: Un instrumento para identificar sesgos y estereotipos de género en IA

Las tecnologías conllevan impactos sociales que pueden potenciar las desigualdades estructurales imperantes. En el caso de los sistemas basados en Inteligencia Artificial,  en los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado se demostrado que contienen estereotipos discriminatorios. A raíz del Día Internacional de la Mujer Trabajadora, este 8M queremos poner el foco en como estas herramientas pueden reproducir y amplificar estereotipos y sesgos de género.

Por ejemplo ¿Que pasa cuando buscamos la frase “las mujeres no pueden” en el buscador de Google?

 

 

Es crítico trabajar hoy en la identificación y mitigación de esos sesgos cuando supongan formas complejas y veladas de discriminación sobre colectivos y personas. La herramienta EDIA (Estereotipos y Discriminación en Inteligencia Artificial) fue desarrollada por el equipo de Etica en IA de Fundación Vía Libre  con el objetivo de diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje.

En este día, invitamos a todos y todas a visitar EDIA y apropiársela para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings.

Conocer EDIA

 

 

 

Archivo