Copy
14/03/2022

 

Hola, ¿cómo estás? Espero que todo siga bien del otro lado. En los últimos envíos vengo hablando bastante de Inteligencia Artificial y no es capricho. Es que precisamente las tecnologías inteligentes están cada vez más arraigadas a nuestra vida cotidiana y conllevan también múltiples cuestionamientos y reflexiones éticas y políticas que hay que empezar a atender o, al menos, empezar a hacernos preguntas.

¡Compartile la newsletter a tus amigues! ¡Compartile la newsletter a tus amigues!
 ¿Inteligencia Artificial para quiénes?

A mediados de febrero el medio Wired publicó una investigación que volvió a poner en agenda un hecho que ocurrió en 2018, cuando en la provincia argentina de Salta se aprobó el desarrollo de un sistema algorítmico que permitía predecir las probabilidades de embarazo de las adolescentes. Un proyecto de lo más violento y misógino, que apuntaba a pronosticar el futuro  de niñas y adolescentes de los barrios más vulnerados. 

El sistema, resultado de un acuerdo de cooperación con Microsoft, se llamó "Plataforma Tecnológica de Intervención Social". Y mientras en Argentina comenzaba el debate por la despenalización del aborto, el entonces gobernador de la provincia, Juan Manuel Urtubey, afirmaba con orgullo en un programa de televisión nacional que "con la tecnología se puede prever con cinco o seis años de anticipación, con nombre, apellido y domicilio, qué chica está predestinada en un 86 por ciento a tener un embarazo adolescente".  

Este plan fue presentado como un caso de estudio en conjunto con el Ministerio de Primera Infancia de Salta. Todavía se puede encontrar en internet el documento, redactado por un empleado de Microsoft, que describe en detalle como fue el proceso para “detectar jóvenes adolescentes en riesgo de quedar embarazadas usando técnicas de learning machine”, a partir de las cuales crearon “diferentes modelos predictivos que permiten detectar hasta el 90% de los casos". 

Para ello se valieron de una base de datos proporcionada por el propio Ministerio que contenía información de 200 mil residentes, con más de 12 mil niñas y adolescentes de entre 10 y 19 años, de los barrios periféricos y vulnerados de la ciudad de Salta, entre ellos las comunidades indígenas wichí, qulla y guaraní y familias migrantes de países sudamericanos. Los datos obtenidos correspondían a edad, barrio, etnia, país de origen, presencia o ausencia de discapacidad, agua caliente en el baño y si el/la jefa de hogar había abandonado sus estudios. La info incluía, además, registro de fotos y ubicaciones en el GPS.  

El proyecto recibió muchísimas críticas por parte de activistas, investigadores/as y académicos/as. Desde el Laboratorio de Inteligencia Artificial Aplicada (LIAA) de la Universidad de Buenos Aires, se señalaron los graves errores técnicos y de diseño de la plataforma y, sobre todo, que la base de datos si bien incluía cuestiones étnicas y socioeconómicas, las mismas se utilizaban fuera de contexto y no había nada sobre métodos anticonceptivos o el acceso a la Educación Sexual Integral, dos herramientas reconocidas a nivel mundial para reducir las tasas de embarazo adolescente.

Hace algunas semanas, para un artículo que escribí sobre sexismo en los algoritmos, Ivana Feldfeber, Licenciada en Educación, Pedagoga Social y Directora Ejecutiva del Observatorio DataGénero, a propósito de las bases de datos me comentaba que hay un montón de preguntas que no se pueden responder precisamente porque no hay datos. En líneas generales, “hay muchos registros que no están desagregados por sexo biológico, y eso es un problema porque es información que no tenemos”. 

Pero además de la ausencia de perspectiva de género en el desarrollo de los datos, en Argentina tampoco se cuenta con un estándar nacional para su recolección. “Tenemos brechas muy grandes, hay provincias que gestionan la información de la manera que pueden y quieren después no es trazable con otras provincias”, afirma Ivana. “Esos mismos datos que vemos están sesgados, son deficientes e incompletos, son los que se usan para entrenar y aplicar diferentes modelos de aprendizaje automático y sistemas de  inteligencia artificial implementados, por ejemplo para trabajar con diferentes temáticas vinculadas a género y/o pobreza, educación, salud”. Los resultados claramente, serán siempre cuestionables.

El observatorio DataGénero, con base en Argentina,  es el primero de este tipo en Latinoamérica. Desde allí sus integrantes trabajan en la intersección del sesgo de género, los datos de género y el feminismo. Proponen el trabajo con datos como un desarrollo integral donde la perspectiva de género es transversal a todo el proceso, desde que empieza el planeamiento de esa recolección de información, pasando por la aplicación de técnicas de IA y hasta llegar a la comunicación de esos datos. En ese sentido, también sostienen la importancia del tratamiento de y la privacidad de las personas, qué información se recolecta y para qué, y un proceso de monitoreo constante para evitar cualquier sesgo que pudiera colarse.

Como consecuencia de una ausencia de regulación nacional en materia de Inteligencia Artificial, La "Plataforma Tecnológica de Intervención Social" nunca se sometió a una revisión formal ni tampoco se brindaron muchas más especificaciones, se publicaron datos oficiales sobre su aplicación o resultados. Tampoco se brindó información sobre, por ejemplo, qué pasaría luego de que una adolescente fuera identificada como “predestinada” a ser madre, o concretamente qué políticas públicas y/o proyectos se desarrollarían con esa informacíon que ayudasen a prevenir el embarazo adolescente. Hoy no sabemos si el proyecto se puso en práctica o fue suspendido. Este sistema de IA fue un ejemplo más de la violación de los derechos de las mujeres, niñas y adolescentes por parte del Estado.

 Construyendo IA Feminista, desde y para el Sur Global

Alianza A+ es una alianza global por algoritmos inclusivos que busca combatir los sesgos que reproduce la Inteligencia Artificial. El Hub de América Latina y el Caribe la semana pasada organizó el Primer Encuentro Regional de la Red Feminista de Investigación en Inteligencia Artificial.  Se trató de una jornada de intercambio entre investigadoras, activistas, desarrolladoras, estudiantes y personas interesadas en temas asociados con las tecnologías inteligentes.

Uno de los objetivos es precisamente, impulsar una agenda feminista  de investigación, acción e innovación que permita buscar “alternativas sociales y comunitarias que promuevan principios feministas en todo el ciclo de vida de la inteligencia artificial”, y  avanzar en la equidad de género.

El año pasado lanzaron una convocatoria de propuestas para la incubación de Inteligencia Artificial Feminista desde el Sur Global y durante el encuentro presentaron tres de los proyectos seleccionados: Diagnóstico y mitigación de sesgos desde América Latina, de la Fundación Vía Libre (Argentina), Hacia un marco feminista para el desarrollo de IA: de los principios a la práctica, de Derechos Digitales (Chile) y Herramientas de automatización hacia una reforma judicial feminista en Argentina y México de Data Género (Argentina).Si querés saber más sobre el encuentro, podés visitar la web en este link. En pocos días van a compartir los videos de las sesiones. 

El uso de la Inteligencia Artificial nos beneficiará siempre y cuando no perpetúe ni amplifique las injusticias sociales. Estas iniciativas surgen para generar nuevas herramientas que colaboren en el desmantelamiento de desigualdades estructurales, donde todas las personas puedan aprovechar sus ventajas al mismo tiempo que nadie quede atrás ni por fuera. La Inteligencia Artificial puede ser una verdadera oportunidad para reconstruirnos y lograr algoritmos y desarrollos sin sesgos, pero también sociedades más justas.

***

Este fue el envío #46 de Siempre Cyborg Nunca Diosa. ¡Gracias por llegar hasta el final! Si te gusta mi newsletter, a esta altura ya sabés que me hace muy feliz. Podés compartirlo con tus amigues para que se sumen a la comunidad y si te llegó reenviado podés suscribirte acá. No dudes en escribirme si tenés alguna consulta o sugerencia.

Te mando un abrazo, nos vemos en 15 días.
Ivana.

Twitter
Website
Copyright © 2022 Siempre cyborg, nunca diosa, Todos los derechos reservados.

Agregame a tus contactos de mail
También podés modificar tus datos o desuscribirte de la lista.
 
Este newsletter forma parte de
Suscribite a nuestros envíos:
Cabeza de Pelota - Por: Bruno Correa
10 mil KM - Por: Andrés Actis
Palabras Mayores - Por: Georgina Paladino
Lectora Voraz - Por: Paula Turina
 

Email Marketing Powered by Mailchimp