Inteligencia artificial

  • HESEIA: Un conjunto de datos basado en la comunidad para evaluar sesgos sociales en modelos de lenguaje grande, co-diseñado en entornos escolares reales en América Latina

    La mayoría de los recursos para evaluar los sesgos sociales en los modelos de lenguaje grandes se desarrollan sin la participación de las comunidades afectadas por dichos sesgos y rara vez incluyen enfoques participativos.

    Presentamos HESEIA, un conjunto de datos de 46 499 frases creado en un curso de desarrollo profesional. En el curso participaron 370 profesores de secundaria y 5370 alumnos de 189 escuelas latinoamericanas. A diferencia de los puntos de referencia existentes, HESEIA recoge sesgos interseccionales en múltiples ejes demográficos y materias escolares. Refleja los contextos locales a través de la experiencia vivida y los conocimientos pedagógicos de los educadores. Los profesores utilizaron pares mínimos para crear oraciones que expresaran estereotipos relevantes para sus materias escolares y comunidades. Mostramos la diversidad del conjunto de datos en términos de ejes demográficos representados y también en términos de las áreas de conocimiento incluidas. Demostramos que el conjunto de datos contiene más estereotipos no reconocidos por los LLM actuales que los conjuntos de datos anteriores.

    HESEIA está disponible para apoyar las evaluaciones de sesgos basadas en las comunidades educativas.

    Publicado en ACL Anthology. Noviembre 2025.

  • El desafío: destripar la IA en las aulas

    Hemos encontrado preguntas recurrentes en diversos talleres con la herramienta E.D.I.A. en los que participaron docentes. Desde Vía Libre decidimos abordar algunas posibles respuestas, como forma de profundizar una conversación cada vez más necesaria.

    Se trata de recomendaciones o sugerencias con el objetivo de acercar el tema de inteligencia artificial a: docentes, estudiantes, personas en tecnología, y a quienes las usamos.

    No son definitorias. Son el puntapié para abrir discusión.

  • A methodology to characterize bias and harmful stereotypes in natural language processing in Latin America

    En este artículo presentamos una metodología que explica cómo los científicos sociales, los expertos en dominios y los expertos en machine learning pueden explorar en colaboración sesgos y estereotipos perjudiciales en word embeddings y grandes modelos lingüísticos. Nuestra metodología utiliza el software que hemos implementado, disponible en https://huggingface.co/spaces/vialibre/edia.

  • Guía de desafíos y recomendaciones para la implementación de una IA mas justa

    Proponemos recomendaciones técnicas para acompañar en los procesos de creación de sistemas de Inteligencia Artificial, más concretamente, en sistemas basados en Aprendizaje Automático. Estas recomendaciones surgen y se elaboran a partir de entrevistas estructuradas con personas que trabajan en aplicaciones prácticas de sistemas basados en datos, en diferentes roles y diferentes organizaciones del ecosistema tecnológico argentino.

  • Una herramienta para superar las barreras técnicas para la evaluación de sesgos en las tecnologías del lenguaje humano

    El procesamiento automático del lenguaje se está volviendo omnipresente en nuestras vidas, a menudo tomando roles centrales en nuestra toma de decisiones, como lo son el elegir la redacción de nuestros mensajes y correos electrónicos, traducir nuestras lecturas o incluso sostener con nosotros conversaciones completas. Las incrustaciones de palabras son un componente clave de los sistemas modernos de procesamiento del lenguaje natural. Proporcionan una representación de las palabras que ha potenciado el rendimiento de muchas aplicaciones, al funcionar como una semblanza del significado.

    Las incrustaciones de palabras parecen capturar una semblanza del significado de las palabras del texto sin procesar, pero, al mismo tiempo, también destilan estereotipos y prejuicios sociales que luego se transmiten a las aplicaciones finales. Estos sesgos pueden ser discriminatorios. Es muy importante detectar y mitigar esos sesgos, para evitar comportamientos discriminatorios de los procesos automatizados, que pueden ser mucho más dañinos, por su escala, que en el caso de los humanos.

    Actualmente existen muchas herramientas y técnicas para detectar y mitigar los sesgos en las incrustaciones de palabras, pero éstas presentan muchas barreras para el involucramiento de personas sin conocimientos técnicos. Casualmente, la mayoría de los expertos en sesgo, ya sean científicos sociales o personas con un conocimiento profundo del contexto donde el sesgo es dañino, no tienen tales habilidades y no pueden participar en los procesos de detección de sesgos debido a las barreras técnicas.

    Hemos estudiado las barreras en las herramientas existentes y hemos explorado sus posibilidades y limitaciones con diferentes tipos de usuarios. Con esta exploración, nos proponemos desarrollar una herramienta que esté especialmente dirigida a reducir las barreras técnicas y aportar el poder de exploración para atender los requerimientos de los expertos, científicos y personas en general que estén dispuestas a auditar estas tecnologías.

    Descargar PDF “Una herramienta para superar las barreras técnicas para la evaluación de sesgos en las tecnologías del lenguaje humano”

  • Impactos sociales de la inteligencia artificial

    Dossier: “Impactos sociales de la Inteligencia Artificial. Poniendo el foco sobre Argentina”.

    Publicación realizada en el marco de nuestro proyecto sobre Impactos Sociales de la Inteligencia Artificial gracias al apoyo inestimable de la Fundación Heinrich Böll Oficina Cono Sur.