¿Qué son las alucinaciones de IA?

Dos empresarias trabajando juntas usando una tablet digital en una oficina moderna

¿Qué son las alucinaciones de IA?

La alucinación de la IA es un fenómeno en el que un modelo de lenguaje de gran tamaño (LLM), a menudo un chatbot de IA generativa o una herramienta de visión artificial, percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son completamente inexactos.

Por lo general, si un usuario realiza una solicitud a una herramienta de IA generativa, desea un resultado que aborde adecuadamente la instrucción (es decir, una respuesta correcta a una pregunta). Sin embargo, a veces los algoritmos de IA producen outputs que no se basan en datos de entrenamiento, son decodificados incorrectamente por el transformador o no siguen ningún patrón identificable. En otras palabras, "alucina" la respuesta.

El término puede parecer paradójico, dado que las alucinaciones suelen asociarse con el cerebro humano o animal, no con las máquinas. Pero desde un punto de vista metafórico, la alucinación describe con precisión estos resultados, especialmente en el caso del reconocimiento de imágenes y patrones (donde los resultados pueden tener un aspecto verdaderamente surrealista).

Las alucinaciones de IA son similares a cómo los humanos a veces ven figuras en las nubes o caras en la luna. En el caso de la IA, estas interpretaciones erróneas se producen debido a varios factores, como el sobreajuste, el sesgo/inexactitud de los datos de entrenamiento y la alta complejidad del modelo.

La prevención de problemas con tecnologías generativas de código abierto puede resultar difícil. Algunos ejemplos notables de alucinaciones de IA incluyen:

  • El chatbot Bard de Google afirmó incorrectamente que el telescopio espacial James Webb había captado las primeras imágenes del mundo de un planeta fuera de nuestro sistema solar1.
     

  • La IA de chat de Microsoft, Sydney, admite enamorarse de los usuarios y espiar a los empleados de Bing2.

  • Meta retiró su demo Galactica LLM en 2022, después de que proporcionara a los usuarios información inexacta, a veces basada en prejuicios3. 

Si bien muchos de estos problemas se han abordado y resuelto desde entonces, es fácil darse cuenta de que, incluso en las mejores circunstancias, el uso de las herramientas de IA puede tener consecuencias imprevistas e indeseables.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Implicaciones de la alucinación de la IA

La alucinación de la IA puede tener consecuencias significativas para las aplicaciones del mundo real. Por ejemplo, un modelo de IA sanitaria podría identificar incorrectamente una lesión cutánea benigna como maligna, lo que daría lugar a intervenciones médicas innecesarias. Los problemas de alucinaciones de la IA también pueden contribuir a la difusión de información errónea. Si, por ejemplo, los bots de noticias con alucinaciones responden a consultas sobre una emergencia en desarrollo con información que no ha sido verificada, pueden difundir rápidamente falsedades que socavan los esfuerzos de mitigación. Una fuente importante de alucinación en los algoritmos de machine learning es el sesgo de entrada. Si un modelo de IA se entrena en un conjunto de datos compuesto por datos sesgados o poco representativos, puede alucinar con patrones o características que reflejen estos sesgos.

Los modelos de IA también pueden ser vulnerables a ataques adversarios, en los que los malos actores manipulan el output de un modelo de IA ajustando sutilmente los datos de entrada. En las tareas de reconocimiento de imágenes, por ejemplo, un ataque adversario podría implicar añadir una pequeña cantidad de ruido especialmente diseñado a una imagen, lo que provocaría que la IA la clasificara erróneamente. Esto puede convertirse en un problema de seguridad importante, especialmente en áreas sensibles como la ciberseguridad y las tecnologías de vehículos autónomos. Los investigadores de IA desarrollan constantemente barreras de seguridad para proteger las herramientas de IA contra ataques adversarios. Técnicas como el entrenamiento adversarial, en el que el modelo se entrena con una mezcla de ejemplos normales y adversarios, están reforzando los problemas de seguridad. Pero mientras tanto, la vigilancia en las fases de formación y verificación de hechos es primordial.

AI Academy

Confianza, transparencia y gobierno en la IA

La confianza en la IA es sin duda el asunto más importante en este campo. También es comprensible que sea un tema abrumador. Desentrañaremos cuestiones como la alucinación, la parcialidad y el riesgo, y compartiremos los pasos a seguir para adoptar la IA de forma ética, responsable y justa.

Prevención de las alucinaciones de IA

La mejor manera de mitigar el impacto de las alucinaciones de la IA es detenerlas antes de que ocurran. Estas son algunas medidas que puede tomar para que sus modelos de IA funcionen de forma óptima:

Utilice datos de entrenamiento de alta calidad

Los modelos de IA generativa se basan en los datos de entrada para completar las tareas, por lo que la calidad y la relevancia de los conjuntos de datos de entrenamiento determinarán el comportamiento del modelo y la calidad de sus outputs. Para prevenir las alucinaciones, asegúrese de que los modelos de IA se entrenan en datos diversos, equilibrados y bien estructurados. Esto ayudará a que su modelo minimice el sesgo del output, comprenda mejor sus tareas y produzca outputs más eficaces.

Defina el propósito al que servirá su modelo de IA

La explicación detallada de cómo utilizará el modelo de IA (así como cualquier limitación en el uso del modelo) ayudará a reducir las alucinaciones. Su equipo u organización debe establecer las responsabilidades y limitaciones del sistema de IA elegido; esto ayudará al sistema a completar las tareas de manera más efectiva y minimizará los resultados irrelevantes y "alucinantes".

Utilice plantillas de datos

Las plantillas de datos proporcionan a los equipos un formato predefinido, lo que aumenta la probabilidad de que un modelo de IA genere outputs que se ajusten a las directrices prescritas. Confiar en plantillas de datos garantiza la coherencia de los outputs y reduce la probabilidad de que el modelo produzca outputs defectuosos.

Limite las respuestas

Los modelos de IA suelen alucinar porque carecen de restricciones que limiten los posibles resultados. Para evitar este problema y mejorar la coherencia general y la precisión de los resultados, defina los límites de los modelos de IA utilizando herramientas de filtrado y/o umbrales probabilísticos claros.

Pruebe y perfeccione el sistema continuamente

Probar rigurosamente su modelo de IA antes de su uso es vital para prevenir las alucinaciones, al igual que evaluar el modelo de forma continua. Estos procesos mejoran el rendimiento general del sistema y permiten a los usuarios ajustar y/o volver a entrenar el modelo a medida que los datos envejecen y evolucionan.

Confíe en la supervisión humana

Asegurarse de que un ser humano valida y revisa los resultados de la IA es una última medida de refuerzo para evitar las alucinaciones. La participación de la supervisión humana garantiza que, si la IA alucina, un humano estará disponible para filtrarla y corregirla. Un revisor humano también puede ofrecer experiencia en la materia que mejore su capacidad para evaluar el contenido de IA en cuanto a precisión y relevancia para la tarea.

Aplicaciones de la alucinación de la IA

Si bien la alucinación de la IA es ciertamente un resultado no deseado en la mayoría de los casos, también presenta una serie de casos de uso intrigantes que pueden ayudar a las organizaciones a aprovechar su potencial creativo de manera positiva. Algunos ejemplos son:

Arte y diseño

La alucinación de la IA ofrece un enfoque novedoso de la creación artística, proporcionando a artistas, diseñadores y otros creativos una herramienta para generar imágenes visualmente impresionantes e imaginativas. Con las capacidades alucinatorias de la inteligencia artificial, los artistas pueden producir imágenes surrealistas y oníricas que pueden generar nuevas formas y estilos artísticos.

Visualización e interpretación de datos

La alucinación de la IA puede racionalizar la visualización de datos al exponer nuevas conexiones y ofrecer perspectivas alternativas sobre información compleja. Esto puede ser particularmente valioso en áreas como las finanzas, donde la visualización de tendencias de mercado complejas y datos financieros facilita una toma de decisiones más matizada y un análisis de riesgo.

Juegos y realidad virtual (VR)

La alucinación de la IA también mejora las experiencias inmersivas en los juegos y la realidad virtual. El empleo de modelos de IA para alucinar y generar entornos virtuales puede ayudar a los desarrolladores de juegos y diseñadores de realidad virtual a imaginar nuevos mundos que lleven la experiencia del usuario al siguiente nivel. La alucinación también puede añadir un elemento de sorpresa, imprevisibilidad y novedad a las experiencias de juego.

Soluciones relacionadas
IBM watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.

Descubra watsonx.governance
Soluciones de gobierno de la IA

Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.

Descubra soluciones de gobierno de la IA
Servicios de consultoría sobre gobierno de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.

Descubra los servicios de gobierno de la IA
Dé el siguiente paso

Dirija, gestione y monitorice su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Solicite una demo en directo
Notas a pie de página

1 What Makes A.I. Chatbots Go Wrong?. The New York Times. 29 de marzo de 2023.

2 ChatGTP and the Generative AI Hallucinations. Medium. 15 de marzo de 2023.

3 Why Meta’s latest large language model survived only three days online. MIT Technology Review. 18 de noviembre de 2022.