Las tecnologías conllevan impactos sociales que pueden potenciar las desigualdades estructurales imperantes. En el caso de los sistemas basados en Inteligencia Artificial, en los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado se demostrado que contienen estereotipos discriminatorios. A raíz del Día Internacional de la Mujer Trabajadora, este 8M queremos poner el foco en como estas herramientas pueden reproducir y amplificar estereotipos y sesgos de género.
Por ejemplo ¿Que pasa cuando buscamos la frase “las mujeres no pueden” en el buscador de Google?
Es crítico trabajar hoy en la identificación y mitigación de esos sesgos cuando supongan formas complejas y veladas de discriminación sobre colectivos y personas. La herramienta EDIA (Estereotipos y Discriminación en Inteligencia Artificial) fue desarrollada por el equipo de Etica en IA de Fundación Vía Libre con el objetivo de diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje.
En este día, invitamos a todos y todas a visitar EDIA y apropiársela para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings.
Conocer EDIA