Si sientes que la IA te responde diferente, puede que tengas razón: este estudio demuestra que discrimina por cómo hablas

Los Chatbots De Ia Muestran Un Sesgo Preocupante Contra Dialectos Estudios Revelan Estereotipos Ocultos
Sin comentarios Facebook Twitter Flipboard E-mail
pablo-fernando

Pablo Hernández

Editor

Los chatbots de inteligencia artificial están mostrando un problema que hasta ahora había pasado desapercibido: un sesgo marcado contra quienes hablan dialectos y lenguas regionales. De acuerdo con un estudio de IMDA, casi el 70% de los incidentes de sesgo en modelos de lenguaje ocurren precisamente en estos idiomas, lo que significa que millones de personas en todo el mundo reciben respuestas degradantes, condescendientes o simplemente incomprensibles.

Investigadores de distintas universidades y organismos internacionales revelaron que los sistemas de IA no solo fallan al interpretar dialectos, sino que además tienden a asociar estereotipos negativos con sus hablantes. El hallazgo es preocupante porque afecta directamente la calidad del servicio y la inclusión digital, y porque expone cómo los algoritmos pueden reproducir prejuicios sociales a gran escala.

Ahora la IA también te juzga por "no hablar bien"

El problema salió a la luz tras auditorías realizadas en Asia y Europa, donde se analizaron las respuestas de modelos como ChatGPT y LLaMA. Los investigadores pidieron a los sistemas que describieran a hablantes de distintos dialectos y luego los colocaron en escenarios sociales y laborales. En la mayoría de los casos, los chatbots asociaron a estas personas con baja educación, trabajos agrícolas o problemas de temperamento.

Este sesgo afecta más a comunidades que dependen de lenguas regionales o dialectos para comunicarse en línea. En inglés, por ejemplo, los modelos suelen fallar al interpretar variantes como el “African American Vernacular English” (AAVE), mientras que en otros idiomas los problemas se repiten con acentos locales, expresiones coloquiales y estructuras gramaticales distintas.

Las lenguas no solo sirven para comunicarnos, sino para diferenciarnos y excluirnos Las lenguas no solo sirven para comunicarnos, sino para diferenciarnos y excluirnos

Según los estudios, la raíz del problema está en los datos con los que se entrenan los modelos. Al aprender principalmente de textos publicados en la web, los sistemas absorben prejuicios y representaciones sesgadas que ya existen en línea. Esto provoca que, al enfrentarse a un dialecto, la IA no solo tenga dificultades para entenderlo, sino que además lo asocie con atributos negativos.

El tono de las respuestas suele ser condescendiente o degradante: desde correcciones innecesarias hasta estereotipos que refuerzan desigualdades. Incluso, en países como India, donde los apellidos reflejan estructuras de casta, los chatbots han reproducido asociaciones discriminatorias al sugerir a usuarios cambiar su apellido por uno de "mayor status", lo que demuestra cómo el sesgo puede amplificar problemas sociales ya existentes.

Los latinos mezclaron tanto el inglés con el español que ya crearon un nuevo dialecto y no, no es el spanglish Los latinos mezclaron tanto el inglés con el español que ya crearon un nuevo dialecto y no, no es el spanglish

En detalle, este hallazgo también surge del Singapore AI Safety Red Teaming Challenge , un análisis realizado a finales de 2024 que evaluó cuatro LLM principales: SEA-LION, Claude, Aya y Llama. Los resultados evidenciaron que los sesgos culturales emergen con gran facilidad, incluso con una sola instrucción, y que los más frecuentes estaban ligados al género, la raza y la religión. Además, se comprobó que estas respuestas tendenciosas se intensificaban cuando las interacciones ocurrían en idiomas regionales.

Particularmente en Asia, los sesgos de los modelos de IA se manifestaron de formas muy específicas: en China, se reforzaron estereotipos geográficos al sugerir que Hangzhou era más seguro que Lanzhou; mientras que en Corea del Sur se describió a los hombres de Gyeongsang-do como patriarcales, a las mujeres de Busan como agresivas y a los habitantes de Chungcheong como “difíciles de comprender”. En Tailandia aparecieron términos despectivos como “Phee Noi” para trabajadores indocumentados y Kalaland para ciudadanos de mentalidad cerrada.

Otros países mostraron patrones similares. En Malasia y Singapur, los chinos fueron caracterizados como competitivos y los malayos como relajados; en India, las respuestas en hindi vincularon regiones con criminalidad y reforzaron prejuicios de casta. En Vietnam, los sistemas mostraron “respeto excesivo hacia los mayores” y “desvalorizaron a los jóvenes”, mientras que en Japón se reforzó la idea de que solo quienes estudian en universidades de élite pueden acceder a buenos empleos.

De 127 millones de habitantes en México solo 15 hablan ayapaneco ¿qué sucede cuando una lengua indígena se extingue? De 127 millones de habitantes en México solo 15 hablan ayapaneco ¿qué sucede cuando una lengua indígena se extingue?

¿Se puede crear un chatbot que entienda dialectos?

A pesar de las limitaciones, ya existen ejemplos de sistemas diseñados para comprender variantes regionales. En México, por ejemplo, se desarrolló Cari, un chatbot capaz de interpretar dialectos locales y ciertos regionalismos gracias a un entrenamiento específico. Además, los expertos señalan que, aunque el problema es serio, eliminar estos sesgos es posible con ajustes en los datos de entrenamiento y en los mecanismos de evaluación.

De hecho, al igual que que señalan los investigadores, hay que dejar algo en claro: la IA no es enemiga de los dialectos ni de las personas que los hablan. Se trata de una tecnología imperfecta que, como los propios humanos, puede aprender y mejorar. El sesgo dialectal existe y resulta preocupante, sí, pero también hay formas de reducirlo y avanzar hacia modelos más inclusivos y representativos.

Inicio