Los mismos procesos que a menudo conducen a resultados impresionantes son también los que hacen que los modelos generativos alucinen: cuando generan información incorrecta o engañosa. Las alucinaciones o confabulaciones ocurren cuando los modelos perciben patrones en sus conjuntos de datos de entrenamiento que no existen en el mundo real.
Por ejemplo, al preguntarle a ChatGPT-4o mini “¿En qué episodio de Seinfeld va Kramer a Bangladesh?”, se obtuvo esta respuesta:
Kramer viaja a Bangladesh en el episodio titulado "El pequeño Jerry", que es el episodio 145 de Seinfeld. Es el episodio 145 [sic] del programa y se emitió originalmente durante la temporada 8. En este episodio, Kramer se involucra en un plan para importar un juguete de Bangladesh.
Aunque El pequeño Jerry es el episodio 145 de Seinfeld y se emitió durante la octava temporada, muestra a Kramer comprando y entrenando un gallo, el homónimo Little Jerry. Volver a hacer que el chatbot hiciera la misma pregunta provocó una segunda alucinación diferente:
Kramer va a Bangladesh en el episodio titulado "Las Maldivas", que es el episodio 18 de la temporada 9. En este episodio, intenta comenzar una nueva vida después de su viaje, y la historia gira en torno a la idea de que se convierta en un pescador "bangladesí".
En realidad, el episodio 18 de la novena temporada de Seinfeld es El ranas, y en él, Kramer solo llega hasta la comisaría de policía. No hay ningún episodio de Seinfeld llamado Las Maldivas, y en ningún momento de toda la serie Kramer va a Bangladesh.
Al igual que los modelos autorregresivos como GPT son conocidos por alucinar con hechos inventados, otros tipos de modelos pueden alucinar a sus respectivas maneras. Los modelos de difusión utilizados para la generación de imágenes a veces representan los objetos del mundo real de formas que no se ajustan a la realidad.