Del 11 al 14 de marzo se lleva a cabo Khipu 2025 en Santiago, Chile. Allí, Vía Libre participará en distintas sesiones y paneles sobre IA y aprendizaje automático.
Khipu es uno de los encuentros más importantes de la región, reuniendo a investigadores, estudiantes y expertos para debatir el presente y futuro de la IA en Latinoamérica.
Para conocer más sobre el evento, podés ingresar al siguiente enlace.
📌 Algunos paneles serán transmitidos en vivo y se pueden verlo online desde el siguiente enlace.
Para quienes estén en Santiago de Chile, aún es posible sumarse a eventos presenciales del jueves 13 y el viernes 14.
Luciana Benotti además forma parte del comité organizador de Khipu2025.
Paneles y prácticas en las que participamos:
- Empoderando a docentes con IA para la evaluación de sesgos en tecnologías del lenguaje en América Latina
Lunes, 10 de marzo – 12:00 PM to 14:00 PMPresentado por: Pietro PalombiniEvaluar la tecnología de IA en busca de sesgos y comportamientos tóxicos es clave para el desarrollo de aplicaciones centradas en el ser humano. Sin embargo, los enfoques actuales suelen omitir evaluaciones culturalmente situadas y carecen de representación de regiones marginadas como América Latina.Este proyecto busca fortalecer el rol de docentes y estudiantes en la evaluación de sesgos en tecnologías del lenguaje, promoviendo una IA más responsable y culturalmente consciente. Actualmente, se desarrolla un curso en Argentina con 30 docentes universitarios, 400 docentes de secundaria y 6,000 estudiantes, quienes generan y analizan datos para identificar estereotipos y sesgos. La iniciativa se expandirá a Brasil, México, Chile y Uruguay, alcanzando el 60% de la población latinoamericana. Se adaptarán metodologías según cada contexto y se liberarán datasets para futuras investigaciones sobre IA centrada en la sociedad.
- Evaluación sociocultural de la IA
Martes 11 de marzo – 17:45 pm a 19:45 hs – Sala PC2 (Econ)
Participan: Luciana Benotti, Marcos Gómez, Pietro Palomini junto a Vinod (India).
Este taller es trabajo conjunto con Guido Ivetta, Pietro Palombini, Sofía Martinelli, Marcos Javier Gómez, Vinodkumar Prabhakaran y Sunipa Dev y se llama “Evaluación Socio-Cultural de Modelos de Lenguaje” y construye sobre trabajo conjunto con Laura Alonso Alemany, Beatriz Busaniche, Nair Carolina Mazzeo, Emilia Echeveste y otros colegas de Fundación Vía Libre y Universidad Nacional de Córdoba.
- Desafíos y nuevas preguntas para la ingeniería de seguridad en ML
Martes 11 de marzo – 12:00 hs a 14:00 hs
Presenta Enrique Chaparro.
Los sistemas de ML seguros son un objetivo común, pero la seguridad implica seguridad, y la seguridad requiere ingeniería. Más allá de los riesgos comunes a cualquier sistema informático, los sistemas de ML plantean un nuevo conjunto de riesgos. El estado actual en el mundo del ML parece ser el proceso de “penetrar y parchar” similar a una rueda de hámster que era común en el campo de la seguridad del software a fines del siglo pasado. Los primeros trabajos en seguridad y privacidad del ML han tomado un enfoque más de “seguridad de operaciones” centrado en proteger un sistema de ML existente y mantener su integridad de datos. Este trabajo en progreso tiene como objetivo contribuir a la base de buenas prácticas de ingeniería de seguridad específicas para ML. En nuestra opinión, el análisis de riesgo arquitectónico (ARA) es necesario en esta etapa. Un ARA adopta una visión a nivel de diseño de un sistema y desenmascara los riesgos sistémicos para que esos riesgos puedan mitigarse y gestionarse adecuadamente a medida que se crea un sistema. En general, un ARA se preocupa mucho más por las compensaciones de diseño y la ingeniería sólida que por errores particulares en un sistema específico o líneas individuales de código. Se exploran otras pautas de seguridad, por ejemplo, los principios de Saltzer-Schroeder y los principales fallos de diseño de seguridad de software del IEEE.
- Investigación en la academia y la industria
Jueves 13 de marzo – 18 a 18:40 hs
Participan: Laura Alonso Alemany (Vía Libre – UNC) junto a Nando De Freitas (Microsoft), Jeff Dean (Investigación de Google, Google Deepmind), Guillermo Sapiro (Apple, Universidad de Princeton), Nayat Sánchez-Pi (INRIA, Chile)
- Panel de gobernanza de la IA
Viernes 14 de marzo – 15:40 a 16:20
Beatriz Busaniche será moderadora del panel, en el que participan: Ignacio Silva Santa Cruz, (Ministerio de Ciencia, Tecnología, Conocimiento e Innovación), Marina Bericua (Microsoft), Luca Belli (Fundación Getulio Vargas, Brasil) – Juan Carlos Lara (Derechos Digitales)