Microsoft desarrolló un algoritmo capaz de predecir que adolescentes podrían quedar embarazadas con cinco años de anticipación: reporte

Prueba Embarazo
9 comentarios Facebook Twitter Flipboard E-mail

En 2018, Microsoft y el Ministerio de la Primera Infancia de la provincia de Salta en Argentina, presentaron un sistema capaz de predecir el embarazo adolescente y prevenir la descensión escolar, llamado Plataforma Tecnológica de Intervención Social, según una investigación realizada por Wired.

El sitio señala que el entonces gobernador de la provincia, Juan Manuel Urtubey, describió ante televisión nacional que "con la tecnología, se puede prever con cinco o seis años de anticipación, con nombre, apellido y dirección, qué niña está predestinada en un 86% a tener un embarazo adolescente".

La recolección de datos y falta de documentación oficial

Según detalla el artículo, el objetivo del algoritmo era predecir que niñas quedarían embarazadas en los próximos cinco años, pero nunca se informó que pasaría una vez que una joven fuera etiquetada como "predestinada" a la maternidad, ni cómo esta información se podría utilizar para prevenir el embarazo adolescente.

El sistema se basó en datos como edad, etnia, país de origen, discapacidad, si la casa en que se encontraba contaba con agua caliente en el baño, de aproximadamente 200,000 residentes de Salta, con 12,000 mujeres y niñas entre 10 y 19 años.

Panorámica Ciudad de Salta | Imagen: TheLocomotionWithMe

Wired también menciona que no existe documentación oficial, pero por artículos de prensa y dos revisiones técnicas se puede conocer que "agentes territoriales" visitaron las casas de las niñas y mujeres, realizando encuestas, tomando fotografías y hasta registrando sus ubicaciones de GPS.

El sistema que fue aclamado por las autoridades como futurista, e incluso por voceros de Microsoft lo calificaron como uno de los "casos pioneros en el uso de datos de IA en programas estatales", no contaba con una regulación.

El propio artículo indica que la Plataforma Tecnológica de Intervención Social nunca estuvo sujeta a una revisión formal, ni se realizaron evaluaciones de sus impactos en niñas y mujeres, además de que tampoco se publicaron datos oficiales sobre su precisión o resultados.

Un sistema sesgado y sin contexto

Aunque no hay información oficial sobre si el programa ser terminó suspendiendo, Wired señala que todo lo que se conoce del sistema proviene de los trabajos de activistas feministas y periodistas, quienes lograron hacer una auditoría bajo la premisa de que el sistema de IA era defectuoso y dañino, no estaba aprobada y violaba los derechos de niñas y mujeres.

Artificial Intelligence 2167835 1280

Por ejemplo Ana Pérez Declercq, directora del Observatorio de Violencia contra la Mujer mencionó que el sistema "confundía las variables socioeconómicas para que parezca que la niña o mujer eran las únicas culpables de su situación, sin preocuparse por el contexto".

Por otro lado, el Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires destacó los graves errores del programa, tanto técnicos y de diseño, que según sus creadores arrojaba predicciones correctas "hasta el 98.2% de las veces".

Esto por que la base de datos no incluía información sobre la educación sexual o la anticoncepción, que a nivel mundial se consideran herramientas importantes para reducir las tazas de embarazos adolescentes  y se centraba solamente en datos étnicos y socioeconómicos. Además, acuerdo con Diego Fernández Slezak, director del laboratorio, esto puede llevar a un riesgo de que "los responsables políticos tomen medidas equivocadas" con la información que el sistema arroja.

Imagen: UAwiki

Comentarios cerrados
Inicio