Mi IBM Iniciar sesión Suscríbase a

¿Qué son las alucinaciones de la IA?

1 de septiembre de 2023

¿Qué son las alucinaciones de la IA?

La alucinación de IA es un fenómeno en el que un modelo de lenguaje grande (LLM), a menudo un chatbot de IA generativa o visión artificial, percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son totalmente inexactos.

Por lo general, si un usuario realiza una solicitud a una herramienta de IA generativa, desea un resultado que aborde adecuadamente la instrucción (es decir, una respuesta correcta a una pregunta). Sin embargo, a veces los algoritmos de IA producen resultados que no se basan en datos de entrenamiento, son decodificados incorrectamente por el transformador o no siguen ningún patrón identificable. En otras palabras, "alucina" la respuesta.

El término puede parecer paradójico, dado que las alucinaciones suelen asociarse con cerebros humanos o animales, no con máquinas. Pero desde un punto de vista metafórico, la alucinación describe con precisión estos resultados, especialmente en el caso del reconocimiento de imágenes y patrones (donde los resultados pueden tener una apariencia verdaderamente surrealista).

Las alucinaciones de la IA son similares a la forma en que los humanos a veces ven figuras en las nubes o caras en la luna. En el caso de la IA, estas interpretaciones erróneas se producen debido a varios factores, como el sobreajuste, el sesgo de los datos de entrenamiento y la alta complejidad del modelo.

Prevenir problemas con tecnologías generativas de código abierto puede resultar un desafío. Algunos ejemplos notables de alucinaciones de IA incluyen:

  • El chatbot Bard de Google afirma incorrectamente que el Telescopio Espacial James Webb capturó las primeras imágenes del mundo de un planeta fuera de nuestro sistema solar.1
     

  • La IA de chat de Microsoft, Sydney, admite enamorarse de los usuarios y espiar a los empleados de Bing.2

  • Meta retiró su demostración de Galactica LLM en 2022 después de que proporcionó a los usuarios información inexacta, a veces arraigada en prejuicios.

Si bien muchos de estos problemas se han abordado y resuelto desde entonces, es fácil ver cómo, incluso en las mejores circunstancias, el uso de herramientas de IA puede tener consecuencias imprevistas e indeseables.

Diseño 3D de pelotas rodando en una pista

Las últimas novedades e insights sobre IA 


Descubra insights y noticias de expertos sobre IA, la nube y mucho más en el boletín semanal Think. 

Implicaciones de la alucinación de la IA

La alucinación de la IA puede tener consecuencias significativas para las aplicaciones en el mundo real. Por ejemplo, un modelo de IA de atención médica podría identificar incorrectamente una lesión cutánea benigna como maligna, lo que daría lugar a intervenciones médicas innecesarias. Los problemas de alucinaciones de la IA también pueden contribuir a la difusión de información errónea. Si, por ejemplo, los bots de noticias alucinantes responden a consultas sobre una emergencia en desarrollo con información que no se verificó, pueden difundir rápidamente falsedades que socavan los esfuerzos de mitigación. Una fuente importante de alucinaciones en los algoritmos de machine learning es el sesgo de entrada. Si un modelo de IA se entrena en un conjunto de datos que comprende datos con sesgo o no representativos, puede alucinar patrones o características que reflejen estos sesgos.

Los modelos de IA también pueden ser vulnerables a ataques adversarios, en los que actores maliciosos manipulan el resultado de un modelo de IA modificando sutilmente los datos de entrada. En tareas de reconocimiento de imágenes, por ejemplo, un ataque adversario podría implicar agregar una pequeña cantidad de ruido especialmente diseñado a una imagen, provocando que la IA la clasifique erróneamente. Esto puede convertir en un importante problema de seguridad, especialmente en áreas sensibles como la ciberseguridad y las tecnologías de vehículos autónomos. Los investigadores de IA desarrollan constantemente medidas de seguridad para proteger las herramientas de IA contra los ataques de los adversarios. Técnicas como el entrenamiento de adversarios, en el que el modelo se capacita con una mezcla de ejemplos normales y adversarios, están reforzando los problemas de seguridad. Pero mientras tanto, la vigilancia en las fases de capacitación y verificación de datos es primordial.

Academia de IA

Confianza, transparencia y gobernanza en IA

La confianza en la IA es, posiblemente, el tema más importante en el campo de la IA. También es, comprensiblemente, un tema abrumador. Desentrañaremos cuestiones, como las alucinaciones, el sesgo y el riesgo, y compartiremos medidas para adoptar la IA de manera ética, responsable y justa.

Cómo prevenir las alucinaciones de la IA

La mejor manera de mitigar el impacto de las alucinaciones de la IA es detenerlas antes de que sucedan. Estos son algunos pasos que puede seguir para mantener sus modelos de IA funcionando de manera óptima:

Emplee datos de entrenamiento de alta calidad

Los modelos generativos de IA se basan en datos de entrada para completar tareas, por lo que la calidad y relevancia de los conjuntos de datos de entrenamiento dictarán el comportamiento del modelo y la calidad de sus resultados. Para prevenir alucinaciones, asegúrese de que los modelos de IA estén entrenados con datos diversos, equilibrados y bien estructurados. Esto ayudará a su modelo a minimizar el sesgo de salida, comprender mejor sus tareas y producir resultados más efectivos.

Defina el propósito de su modelo de IA

Explicar cómo empleará el modelo de IA, así como cualquier limitación en el uso del modelo, ayudará a reducir las alucinaciones. Su equipo u organización debe establecer las responsabilidades y limitaciones del sistema de IA elegido; esto ayudará al sistema a completar las tareas de manera más efectiva y minimizar los resultados irrelevantes y "alucinatorios".

Emplee plantillas de datos

Las plantillas de datos proporcionan a los equipos un formato predefinido, lo que aumenta la probabilidad de que un modelo de IA genere resultados que se alineen con las pautas prescritas. Confiar en plantillas de datos garantiza la coherencia de los resultados y reduce la probabilidad de que el modelo produzca resultados defectuosos.

Limite las respuestas

Los modelos de IA a menudo alucinan porque carecen de restricciones que limiten los posibles resultados. Para evitar este problema y mejorar la coherencia y precisión generales de los resultados, defina los límites de los modelos de IA mediante herramientas de filtrado o umbrales probabilísticos claros.

Pruebe y perfeccione el sistema continuamente

Probar rigurosamente el modelo de IA antes de emplearlo es vital para evitar alucinaciones, al igual que evaluarlo de forma continua. Estos procesos mejoran el rendimiento general del sistema y permiten a los usuarios ajustar o volver a entrenar el modelo a medida que los datos envejecen y evolucionan.

Confíe en la supervisión humana

Asegurarse de que un ser humano valida y revisa los resultados de la IA es una última medida de refuerzo para evitar las alucinaciones. La participación de la supervisión humana garantiza que, si la IA alucina, un humano estará disponible para filtrarla y corregirla. Un revisor humano también puede ofrecer experiencia en la materia que mejore su capacidad para evaluar el contenido de IA en cuanto a precisión y relevancia para la tarea.

Aplicaciones de alucinación de IA

Si bien la alucinación de IA es ciertamente un resultado no deseado en la mayoría de los casos, también presenta una variedad de casos de uso intrigantes que pueden ayudar a las organizaciones a aprovechar su potencial creativo de manera positiva. Ejemplos:

Arte y diseño

La alucinación de la IA ofrece un enfoque novedoso para la creación artística, proporcionando a artistas, diseñadores y otros creativos una herramienta para generar imágenes visualmente impresionantes e imaginativas. Con las capacidades alucinatorias de la inteligencia artificial, los artistas pueden producir imágenes surrealistas y oníricas que generen nuevas formas y estilos de arte.

Visualización e interpretación de datos

La alucinación de la IA puede agilizar la visualización de datos al exponer nuevas conexiones y ofrecer perspectivas alternativas sobre información compleja. Esto puede ser particularmente valioso en áreas como las finanzas, donde la visualización de tendencias de mercado complejas y datos financieros facilita una toma de decisiones más sofisticada y un análisis de riesgos.

Juegos y realidad virtual (VR)

La alucinación de la IA también mejora las experiencias inmersivas en los juegos y la realidad virtual. Emplear modelos de IA para alucinar y generar entornos virtuales puede ayudar a los desarrolladores de juegos y diseñadores de RV a imaginar nuevos mundos que lleven la experiencia del usuario al siguiente nivel. La alucinación también puede agregar un elemento de sorpresa, imprevisibilidad y novedad a las experiencias de juego.

Soluciones relacionadas

Soluciones relacionadas

IBM watsonx.governance™

Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.

Descubra watsonx.governance
Servicios de consultoría sobre gobernanza de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza de la IA responsable con la ayuda de IBM Consulting.

Explore los servicios de gestión de IA
IBM OpenPages

Simplifique la forma de gestionar el riesgo y el cumplimiento normativo con una plataforma de GRC unificada.

Explorar OpenPages
Dé el siguiente paso

Dirija, gestione y monitoree su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Reserve una demostración en vivo
Notas de pie de página

1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29 de marzo de 2023.

2 ChatGTP and the Generative AI Hallucinations, Medium, 15 de marzo de 2023.

3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18 de noviembre de 2022.