“La inteligencia artificial está fuera de contexto”

Comenzamos marzo reflexionando sobre los impactos y las consecuencias de la IA desde Dinamarca. Luciana Benotti, parte del equipo de ética en IA, viajó y participó de los encuentros de la Sociedad Filosófica Danesa, donde se puso en discusión ponderar cuidadosamente las implicancias antes de embarcarse en innovaciones rápidas sin medir las consecuencias.


La primera semana de marzo, se desarrollaron los encuentros de la Sociedad Filosófica Danesa en Dinamarca, que tiene como objetivo fortalecer el rol de la filosofía en el país e interactuar con otras disciplinas. Esta sociedad, es una asociación que existe desde 1999 pero que publican anualmente un libro que se desarrolla desde el año 1964. Para este encuentro es convocada Luciana Benotti, del equipo de ética en IA de Vía Libre, que asesora el proyecto
Dis-Trust aceptado y financiado por la Fundación Velux.


Proyecto Dis-Trust. ¿Se puede tener confianza en los sistemas digitales?
Es una pregunta que sobrepasa los límites geográficos. Regulación y ética son algunas bases que se empiezan a plantear en un sistema en crecimiento. ¿Cómo? ¿De qué manera?. El objetivo de este proyecto es generar nuevos conocimientos en torno a la alfabetización digital. Dis-Trust refiere a Digitally Enhanced Social Reality and Environments of Trust, pero además hace referencia a su significado en inglés: desconfiar. Y justamente el objetivo es evaluar los niveles de confianza en los sistemas digitales. Trabaja evaluando varios casos dentro del sistemas de gobierno de ese país. Dinamarca tiene un gobierno muy digitalizado, pero no es el único caso de estudio, también evaluará sistemas más comerciales como AirBnB. Investiga además cómo se arman las relaciones de confianza cuando hay medición de una tecnología. Y en particular, cuando en esa tecnología además, tiene inteligencia artificial como uno de sus componentes.


El encuentro en sí y una reflexión
Se desarrolló en tres partes. Una reunión de impacto junto a quienes vienen desarrollando Dis-Trust y asesores externos. Una charla donde Luciana presentó “Riesgos de la IA generativa: perspectivas de investigación latinoamericana en IA” con más de 100 personas de la sociedad interesada principalmente de Dinamarca, pero también de otros países. Y finalmente una clase en la maestría que se desarrolla en la Universidad de Roskilde, donde participaron unos 40 estudiantes.

Una charla no es completa sin las devoluciones de la audiencia. Una devolución que llamó principalmente la atención de Luciana fue la de Micole Mieli, un post doctoranda italiana. Ella hizo referencia al contexto. Tiene que ver con que las personas adaptamos las formas de hablar según el contexto: ¿quiénes participan? ¿qué vamos a decir? ¿conocemos a quienes le hablamos?¿En qué circunstancias políticas, económicas y sociales lo hacemos? Algunas preguntas que surgen consciente o inconscientemente en el habla. En cambio los modelos de lenguaje cuando toman el lenguaje y se entrenan no están teniendo en cuenta de quién está viniendo ese lenguaje ni en qué contexto se dijo. 

¿Qué significa entonces “contexto” según los modelos de lenguaje? Luciana comparte la definición como  “una secuencia de palabras dentro de un texto. Es un concepto bastante técnico. Es una ventana que hay entre la palabra que estamos tratando de predecir, las n palabras anteriores y las n palabras que vienen después. Ese contexto, esa secuencia antes y después, se ha ido ampliando. Y en herramientas como chatgpt cada vez son más grandes, pero incluye solamente eso: palabras. No otras variables contextuales como un punto de vista histórico, o cultural.

¿Qué implicancias trae esa descontextualización?


Otra vez la IA y el trabajo precarizado
De este tema venimos hablando hace bastante desde Vía Libre. En nuestro podcast, en el episodio “Los trabajadores invisibles de la Inteligencia Ariticial” conversamos sobre las y los trabajadores que entrenan los sistemas de IA. En Dinamarca también surgió este tema.

“Me llamó particularmente la atención las personas que hacen anotación de datos, a través de plataformas de crowdworking. Si bien cobran un salario un poco más que el mínimo, sólo incluyen las horas que están efectivamente sentados enfrente de la computadora. No hay ningún tipo de beneficio laboral ni seguridad laboral. Y tampoco se las involucra en las tareas de anotación. La información que se le brinda, también es totalmente descontextualizada.” Expresó Luciana Benotti.

Precarización para quienes lo realizan y una inteligencia artificial totalmente fuera de contexto. ¿Qué modelos de lenguajes estamos entrenando? Algunas reflexiones después de un encuentro tan valioso. Valioso, porque además, es poco frecuente que haya recursos para estas reflexiones, o para investigar sobre estos temas. Poder dejar de lado la necesidad de innovar rápidamente, sin reflexionar sobre las consecuencias y los impactos que va a tener esa tecnología más allá de la acumulación de capital. 








Archivo