Estuvimos en Nueva Delhi participando del India AI Impact Summit 2026, un encuentro internacional que reunió a investigadoras, investigadores y organizaciones para debatir sobre el impacto social, político y educativo de la inteligencia artificial.
El 18 de febrero, en el marco de la sesión “Simposio de investigación sobre la IA y su impacto”, Guido Ivetta representó a nuestro equipo y presentó el póster: “HESEIA: Un conjunto de datos comunitario para evaluar sesgos sociales en grandes modelos de lenguaje, co-diseñado en contextos escolares reales en América Latina.”
Un dataset construido desde la escuela
HESEIA surge del curso de extensión docente en el que se construyó, de manera colaborativa, un dataset compuesto por 46.499 oraciones. El conjunto de datos captura sesgos interseccionales a través de múltiples ejes demográficos y distintas asignaturas escolares, reflejando contextos locales a partir de la experiencia vivida y la práctica pedagógica de docentes de América Latina.
A diferencia de otros datasets diseñados exclusivamente en entornos técnicos, HESEIA fue co-diseñado en contextos escolares reales, incorporando la mirada situada de educadores y educadoras. El objetivo es fortalecer las evaluaciones de sesgo en grandes modelos de lenguaje desde una perspectiva comunitaria y contextualizada.
HESEIA es parte del trabajo desarrollado por el equipo de IA en Fundación Vía Libre: Guido Ivetta, Marcos Javier Gómez, Sofía Martinelli, Pietro Palombini, Emilia Echeveste, Nair Carolina Mazzeo, Beatriz Busaniche y Luciana Benotti.
El paper fue publicado en la Association for Computational Linguistics y puede consultarse en el siguiente enlace:
🔗 https://aclanthology.org/2025.emnlp-main.1275/
Seguimos trabajando para impulsar evaluaciones de inteligencia artificial que integren saberes pedagógicos, perspectivas locales y enfoques críticos sobre los sesgos sociales en los modelos de lenguaje.




