Lineamientos para el desarrollo de una IA más justa

Con el apoyo del EthicsTecLab de la Universidad de Notre Dame, a lo largo del 2022 le dimos forma a una serie de lineamientos y que proponemos para promover un diálogo fructífero en el campo del desarrollo de sistemas de IA en Argentina y en la región.

En este documento, proponemos una serie de recomendaciones técnicas pensadas y diseñadas especialmente para acompañar los procesos de creación de sistemas de inteligencia artificial, concretamente en sistemas basados en aprendizaje automático.

Estas recomendaciones son fruto de una construcción de trabajo en el que participó todo el equipo de ética en IA de la Fundación Vía Libre y que comenzó con una serie de entrevistas estructuradas con personas que trabajan en aplicaciones prácticas de sistemas basados en datos, en diferentes roles y de diferentes organizaciones del ecosistema tecnológico argentino.

Consideramos fundamental la participación del sector privado en este debate y por eso escuchamos con mucha atención la voz de aquellas personas que piensan soluciones y diseñan sistemas en ese ámbito laboral.

Las principales recomendaciones que proponemos son:

1. Como paso previo a cualquier desarrollo, cuestionar la necesidad y valor social del mismo, teniendo en cuenta potenciales beneficios y perjuicios.

2. Definir el problema que se quiere resolver en términos no técnicos, desde la reflexión conjunta entre las partes interesadas en desarrollar una aplicación de inteligencia artificial. Tener en cuenta posibles usos secundarios de la aplicación, y sus potenciales efectos perniciosos.

3. Seleccionar las fuentes de datos con las que se va a entrenar el modelo preservando la protección de datos personales y propiedad intelectual, y con atención a posibles sesgos, de forma que todos los grupos queden representados de forma adecuada y no discriminatoria, con especial atención a las minorías.

4. En el entrenamiento de los modelos, incorporar metodología de comprobación de limitaciones habituales de los modelos que repercuten en resultados perniciosos: clases poco representadas, clases mayoritarias, tendencia al sobreajuste, etc.

5. En la evaluación de modelos, incorporar métricas para la detección temprana y sistemática de posibles sesgos en las predicciones.

6. Puesta en producción por fases y acompañada con los correspondientes mecanismos de monitoreo para detección temprana de efectos perniciosos del funcionamiento del algoritmo, incorporando diferentes perspectivas.

El documento pretende contribuir al entendimiento de los procesos de desarrollo y los problemas asociados al mismo y servir de guía para quienes estén interesados en generar productos tecnológicos más respetuosos con los derechos humanos.

El documento completo está disponible para su descarga.

Archivo