Los detectores de textos generados por ChatGPT no sirven y solo arrojan falsos positivos, según OpenAI

Chatgpt
Sin comentarios Facebook Twitter Flipboard E-mail
oscar-steve

Steve Saldaña

Editor Senior

Periodista de tecnología y ciencia. Escribo y analizo la industria de plataformas tech en México y soy fan de la ética tecnológica. También soy miembro de la Red Mexicana de Periodistas de Ciencia. Hago locución comercial, produzco podcast y soy presentador del podcast semanal ROM. LinkedIn

Será para siempre incalculable la cantidad de estudiantes que han recibido regaños y castigos por haber generado sus tareas, ensayos y tesis mediante ChatGPT. El problema es que difícilmente los regaños habrán llegado porque se les haya descubierto in fraganti, sino por culpa de los denominados detectores de textos que prometen precisión al clasificar si un texto fue hecho por un humano o por una IA.

Los dichosos detectores están en realidad no arrojan más falsos positivos, según OpenAI.

El mito de que la IA puede ser infaliblemente detectada se desmorona. "En pocas palabras, los detectores de IA no funcionan", se lee en la nueva página de preguntas frecuentes que OpenAI ha lanzado a propósito de su nuevo micrositio sobre cómo enseñar con ayuda de Inteligencia Artificial.

En él, OpenAI revela que ha detectado que los detectores que existen son sumamente infalibles. Detectan como textos hechos por IA fragmentos de la obra de Shakespeare y hasta la declaración de independencia de Estados Unidos. No se trata solamente de detectores de terceros, OpenAI aclara que ni siquiera la propia es capaz de lograr un 100% de precisión.

Mucho por arreglar

Para OpenAI el tema no es detectar si un texto es o no generado por ChatGPT o alguna otra herramienta de inteligencia artificial, puesto que estudiantes podrían solamente hacer ediciones el texto y evadir así cualquier detector que fuera realmente certero -si tal cosa existiese-. Su propuesta es dejar de tratar a ChatGPT como si, por sí mismo, fuera un problema.

"Anticipamos un futuro donde el uso de herramientas de IA como ChatGPT es un lugar común (...) los educadores pueden comprobar que los alumnos utilizan la herramienta de forma responsable y significativa, en lugar de limitarse a copiar las respuestas", dice OpenAI. Su propuesta es que herramientas como ChatGPT sean utilizadas como un chatbot con el cual los estudiantes pueden conversar y de cuyos intercambios haya un expediente consultable en todo momento. "Al mantener un registro de sus conversaciones con la IA, los alumnos pueden reflexionar sobre su progreso a lo largo del tiempo".

Eso es más fácil de decir que de hacer, desde luego. No hace mucho México comenzó a modificar su sistema educativo y el proceso ha sido controversial, problemático y lento. OpenAI esencialmente pide que los programas de enseñanza se centren en el desarrollo de pensamiento crítico, pero esa es una meta difícilmente alcanzable en el corto plazo.

Un último y valioso detalle: ChatGPT no puede dar respuesta real sobre si escribió o no un texto. El usuario que pregunte obtendrá respuesta, por supuesto, pero "estas respuestas son aleatorias y carecen de fundamento", aclara OpenAI. Básicamente, maestras y maestros que pretendan seguir usando herramientas para detectar textos generados por IA no solo no conseguirán detectarlos, sino que seguirán enseñando en un paradigma educativo que ha quedado rebasado.

Comentarios cerrados
Inicio