Maestría en filosofía, historia y estudios daneses

Fecha

4 marzo 2024

Hora

10:00

Lugar

Dinamarca

Luciana Benotti brindará la charla: Evaluación del sesgo en la IA: ¿Quién decide cómo discriminan los modelos lingüísticos? en el marco de la Maestría en Filosofía, Historia y Estudios en Dinamarca.

Los sistemas de IA se utilizan cada vez más para respaldar los procesos de toma de decisiones y las actividades cotidianas. Estos procesos pueden afectar derechos fundamentales, como el derecho a la no discriminación. Sin embargo, la implementación de tales modelos genera preocupación sobre posibles sesgos que puedan comprometer estos derechos. Esta charla aborda el imperativo de quién puede evaluar y auditar los modelos de IA para garantizar que se ajusten a los principios éticos y protejan contra la discriminación.

Los estudios existentes revelan que las representaciones lingüísticas derivadas de corpus pueden perpetuar efectos nocivos, incluida la invisibilización, la autocensura y la disuasión. Este sesgo, interpretado como errores sistemáticos en las aplicaciones posteriores de la IA, afecta desproporcionadamente a ciertas poblaciones, en particular a los grupos históricamente marginados. Si bien se han propuesto numerosas técnicas para medir y mitigar el sesgo en los modelos lingüísticos, las auditorías actuales a menudo requieren experiencia técnica fuera del alcance de quienes tienen conocimientos sobre la discriminación.

Esta presentación cuestiona si se debe confiar en el enfoque reduccionista de abordar los sesgos sociales en los modelos lingüísticos únicamente mediante cálculos algorítmicos. En cambio, aboga por centrarse en la descripción lingüística del comportamiento discriminatorio como herramienta para evaluar el sesgo en los modelos lingüísticos y el procesamiento del lenguaje natural (PNL). El objetivo es ampliar la participación de expertos familiarizados con las complejidades sociales y las comunidades directamente afectadas por los sistemas de IA. Esta participación inclusiva tiene como objetivo hacer que el proceso de evaluación sea transparente, responsable y receptivo a las necesidades de los más afectados.

La charla presentará los principios que guían la integración de los expertos en discriminación en el proceso de evaluación de prejuicios. Critica los enfoques existentes y destaca la necesidad de una herramienta que facilite la participación de personas sin conocimientos técnicos. EDIA, se presenta como una herramienta diseñada para cerrar esta brecha. La sesión incluye una demostración de EDIA, lo que brinda a los asistentes la oportunidad de evaluar los sesgos de la herramienta. La demostración interactiva, accesible en https://huggingface.co/spaces/vialibre/edia, muestra los modelos de idioma predeterminados y las incrustaciones de palabras en inglés y español. Además, se puede crear una instancia de la herramienta de código abierto, disponible en https://github.com/fvialibre/edia, para explorar varias incrustaciones de palabras y modelos de lenguaje en 105 idiomas, incluido el danés. El debate también profundizará en las experiencias adquiridas a través de sesiones prácticas con expertos en discriminación, ofreciendo información sobre la aplicación práctica de EDIA.

La charla tiene como objetivo fomentar la reflexión y la participación en el discurso actual sobre la evaluación de sesgos en PNL, enfatizando el papel de la colaboración interdisciplinaria para el desarrollo confiable de sistemas de IA.