Inteligencia artificial

  • A methodology to characterize bias and harmful stereotypes in natural language processing in Latin America

    En este artículo presentamos una metodología que explica cómo los científicos sociales, los expertos en dominios y los expertos en machine learning pueden explorar en colaboración sesgos y estereotipos perjudiciales en word embeddings y grandes modelos lingüísticos. Nuestra metodología utiliza el software que hemos implementado, disponible en https://huggingface.co/spaces/vialibre/edia.

  • Guía de desafíos y recomendaciones para la implementación de una IA mas justa

    Proponemos recomendaciones técnicas para acompañar en los procesos de creación de sistemas de Inteligencia Artificial, más concretamente, en sistemas basados en Aprendizaje Automático. Estas recomendaciones surgen y se elaboran a partir de entrevistas estructuradas con personas que trabajan en aplicaciones prácticas de sistemas basados en datos, en diferentes roles y diferentes organizaciones del ecosistema tecnológico argentino.

  • Una herramienta para superar las barreras técnicas para la evaluación de sesgos en las tecnologías del lenguaje humano

    El procesamiento automático del lenguaje se está volviendo omnipresente en nuestras vidas, a menudo tomando roles centrales en nuestra toma de decisiones, como lo son el elegir la redacción de nuestros mensajes y correos electrónicos, traducir nuestras lecturas o incluso sostener con nosotros conversaciones completas. Las incrustaciones de palabras son un componente clave de los sistemas modernos de procesamiento del lenguaje natural. Proporcionan una representación de las palabras que ha potenciado el rendimiento de muchas aplicaciones, al funcionar como una semblanza del significado.

    Las incrustaciones de palabras parecen capturar una semblanza del significado de las palabras del texto sin procesar, pero, al mismo tiempo, también destilan estereotipos y prejuicios sociales que luego se transmiten a las aplicaciones finales. Estos sesgos pueden ser discriminatorios. Es muy importante detectar y mitigar esos sesgos, para evitar comportamientos discriminatorios de los procesos automatizados, que pueden ser mucho más dañinos, por su escala, que en el caso de los humanos.

    Actualmente existen muchas herramientas y técnicas para detectar y mitigar los sesgos en las incrustaciones de palabras, pero éstas presentan muchas barreras para el involucramiento de personas sin conocimientos técnicos. Casualmente, la mayoría de los expertos en sesgo, ya sean científicos sociales o personas con un conocimiento profundo del contexto donde el sesgo es dañino, no tienen tales habilidades y no pueden participar en los procesos de detección de sesgos debido a las barreras técnicas.

    Hemos estudiado las barreras en las herramientas existentes y hemos explorado sus posibilidades y limitaciones con diferentes tipos de usuarios. Con esta exploración, nos proponemos desarrollar una herramienta que esté especialmente dirigida a reducir las barreras técnicas y aportar el poder de exploración para atender los requerimientos de los expertos, científicos y personas en general que estén dispuestas a auditar estas tecnologías.

    Descargar PDF “Una herramienta para superar las barreras técnicas para la evaluación de sesgos en las tecnologías del lenguaje humano”

  • Impactos sociales de la inteligencia artificial

    Dossier: “Impactos sociales de la Inteligencia Artificial. Poniendo el foco sobre Argentina”.

    Publicación realizada en el marco de nuestro proyecto sobre Impactos Sociales de la Inteligencia Artificial gracias al apoyo inestimable de la Fundación Heinrich Böll Oficina Cono Sur.