Tan solo en el último año, al menos 1.2 millones de niños y niñas en 11 países han sido víctimas de sexualización mediante inteligencia artificial, reveló un estudio elaborado por UNICEF, INTERPOL y ECPAT (una asociación civil que busca erradicar la explotación sexual comercial de menores de edad). En algunas naciones, esta cifra equivale a 1 de cada 25 menores afectados por deepfakes (es decir, imágenes, videos o audios manipulados para dar una apariencia de realidad).
En un comunicado, UNICEF advirtió que este tipo de contenido va en aumento y circulan en la red. Explicó que, al tratarse de fotografías manipuladas y sexualizadas de menores de edad, se considera abuso sexual infantil, aun si se trata de material falso. Por ello, llamó a los gobiernos a penalizar la creación de este tipo de contenidos, mientras que instó a desarrolladores y empresas digitales a tomar medidas urgentes para impedir que este tipo de material circule en la red.
El impacto de las deepfakes en México
De acuerdo con el estudio, entre los países con este problema se encuentran algunos de América Latina y el Caribe: Brasil, Colombia, República Dominicana y México. Según La Jornada, nuestro país posee un marco legal que protege la voz e imagen de los menores. Sin embargo, este no incluye la IA a pesar de que el 50% de los niños de entre 6 y 11 años, y el 94% de entre 12 y 17 años navega en internet.
Juan Martín Pérez García, coordinador de Tejiendo Redes Infancia en América Latina y el Caribe, advirtió que limitar el acceso de niños, niñas y adolescentes a las redes sociales viola sus derechos a la libertad de expresión e información. Además, dijo que esta medida es una expresión profundamente punitiva y adultocéntrica: "Castigamos a los NNA de algo que nosotros sí hacemos, y al que les dimos acceso con tabletas y celulares, cuando el problema de fondo es quién diseña y controla el algoritmo".
Ante los reiterados llamados de la ONU para regular la IA, Pérez García cree que es necesario un gran debate sobre la materia que se enfoque "en la gobernanza global, los derechos digitales, la transparencia del algoritmo y la aplicación de sanciones claras y contundentes a las empresas tecnológicas que lo incumplan".
"El daño causado es real y urgente"
En su comunicado, UNICEF advirtió que "el daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a que la ley se ponga al día". La organización señaló que "los niños y niñas no pueden estar esperando a que la legislación se actualice". Por tanto, exigió a los gobiernos ampliar las definiciones de lo que constituyen imágenes de abusos sexuales de menores para incluir el contenido generado por IA y penalizar su creación, adquisición, posesión y distribución.
A los desarrolladores de IA llamó a aplicar enfoques de seguridad desde el diseño y medidas sólidas para evitar el uso indebido de los modelos de IA. UNICEF dijo que las empresas digitales deben evitar la circulación de imágenes de abusos sexuales de niños y niñas. También deben reforzar la moderación de contenidos para retirar inmediatamente estas herramientas y no días después de una denuncia por parte de una víctima o su representante.
Como explica El Economista, en años recientes ha aumentado la preocupación por el uso de chatbots como Grok que han sido utilizadas para crear contenidos sexualizados de menores. Y es que, pese a las acusaciones de generar dichas imágenes se generaban sin el consentimiento de las víctimas. xAI, la empresa responsable de Grok declaró que había restringido la edición de imágenes sexualizadas en "jurisdicciones donde es ilegal", aunque no especificó de qué imágenes se trataban.
Ver todos los comentarios en https://www.xataka.com.mx
VER 0 Comentario