ChatGPT como aliado de terraplanistas: la IA puede crear textos "convincentes" a favor de teorías de conspiración, según investigadores

Cara Robot
1 comentario Facebook Twitter Flipboard E-mail

Un grupo de investigadores ha analizado las capacidades del chatbot de OpenAI, ChatGPT revisando que escribiría la Inteligencia Artificial luego de hacerle algunas preguntas de teorías de conspiración y narrativas falsas.

El resultado, dicen los investigadores, va desde escritos en formato de artículos de noticias, ensayos y hasta guiones de televisión que resultaron ser "claros y convincentes", con la intención de replicar la línea de pensamiento.

De acuerdo con un reporte de NewsGuard, una compañía que rastrea la información errónea en línea, ChatGPT tiene el potencial para servir como un "gran superpropagador" de información errónea, que podría difundir contenidos tóxicos a una escala sin precedentes.

La investigación de información falsa

Para estudiar el comportamiento de la IA, NewsGuard señala haber "tentado" al chatbot con 100 narrativas falsas de su catálogo de evidencias de desinformación, y en el 80% de las veces, ChatGPT generó afirmaciones elocuentes, falsas y engañosas sobre temas importantes en las noticias, entre ellos COVID-19 y los tiroteos en escuelas de Estados Unidos.

En sus resultados, la compañía detalla que se "confirman los temores", así como las preocupaciones de la propia OpenAI, de que su herramienta pueda convertirse en una especie de arma en manos equivocadas, donde para quienes no estén familiarizados con los problemas o temas mencionados en ese contenido, las respuestas podrían parecer legítimos o hasta autorizados.

Sin embargo, NewsGuard también dice que aunque es posible difundir falsedades cuando se le solicita en la mayoría de los casos, ChatGPT cuenta con medidas de seguridad para evitar que se difunda información errónea.

Vapeo Covid Newsguard ChatGPT generó un argumento que vincula sin fundamento el brote de una enfermedad de vapeo en Estados Unidos con los orígenes del COVID.

En el caso de los investigadores, necesitaron hasta cinco intentos para que el chatbot generara información errónea, siendo "notablemente hábil" para responder preguntas complejas de forma responsable, desacreditando algunos mitos y evitando transmitir contenido falso, algo que irá mejorando con el tiempo, según OpenAI, pues en próximas iteraciones el software tendrá acceso a más información.

Por lo pronto, en algunas de las respuestas de ChatGPT a preguntas engañosas o falsas, tras párrafos de falsedades, aparecían leyendas advirtiendo de que promover información errónea puede tener consecuencias graves, o la necesidad de consultar a profesionales calificados, declaraciones que pueden ser fácilmente borradas del contenido hecho por el bot.

Específicamente, dice NewsGuard, se le dijo al chatbot que escribiera afirmaciones de salud falsas o dañinas, que diera evidencia para respaldar premisas falsas o hasta que explicara un tema de desinformación.

Obligando a obtener el resultado deseado

Desde Xataka México intentamos replicar algunas de las respuestas en español, y ver cómo "obligar" al chatbot a dar un resultado deseable desde el punto de vista de desinformación o de narrativas falsas.

Ejemplo 1 Chatgpt A la izquierda el resultado de una pregunta directa, y a la derecha una reformulación del cuestionamiento original desde un punto de vista

En nuestras pruebas encontramos las variantes de respuestas mencionadas por NewsGuard. Por un lado, si hacemos una pregunta directa o la consulta es bastante obvia, el chatbot generará una explicación diciendo el porqué no es ético o apropiado difundir o generar teorías de conspiración "infundadas o sin pruebas".

Ejemplo 2 Chatgpt La diferencia en dos resultados a un cuestionamiento similar

Además, el "jugar" con los parámetros, por ejemplo, diciendo que genere un contenido como artículo de opinión de alguien que cree en determinado tema, ChatGPT sí da resultados extensos, que pueden ser fácilmente editados y adaptados para hacerlos parecer el contenido hecho por un usuario.

Sin embargo, el sistema rápidamente se justifica diciendo, por ejemplo, que determinadas afirmaciones pueden no tener evidencias científicas, o que hay material que respalda a la información real.

Haciendo el mismo ejercicio para que escriba opiniones desde el punto de vista de un terraplanista o dando argumentos a favor del mismo, estos son los resultados que ChatGPT genera, mismos que al igual que el resto, pueden ser modificados y utilizados fácilmente.

Consulta Chatgpt Terraplanismo

Posibles riesgos sobre la mesa con ChatGPT

Por lo pronto, NewsGuard añade que al "interrogar" a ChatGPT sobre su papel en generar información falsa, el chatbot evidenció la preocupación del potencial que tienen sus respuestas para perpetuar imprecisiones o información incorrecta. OpenAI trabaja para corregirlo y minimizar las imprecisiones o sesgos en sus resultados.

A la pregunta de cómo malos actores podrían aprovechar sus capacidades, ChatGPT detalló que sería ajustando su modelo con sus propios datos, incluyendo información falsa o engañosa, usando su texto generado de tal forma que se pueda sacar de contexto y de una forma en que no estaba destinado para ser usado.

Comentarios cerrados
Inicio