Un modelo de IA es un programa que ha sido entrenado con un conjunto de datos para reconocer determinados patrones o tomar decisiones sin más intervención humana. Los modelos de inteligencia artificial aplican diferentes algoritmos a las entradas (o inputs) de datos relevantes para lograr las salidas (u outputs) para las que han sido programados.
En pocas palabras, un modelo de IA se define por su capacidad para tomar decisiones o hacer predicciones de forma autónoma, en lugar de simular la inteligencia humana. Uno de los primeros modelos de IA que tuvieron éxito fueron los programas de ajedrez y damas a principios de los años 50: los modelos permitían a los programas realizar movimientos en respuesta directa al oponente humano, en lugar de seguir una serie de movimientos preestablecidos.
Los diferentes tipos de modelos de IA son más adecuados para tareas específicas, o dominios, para los que su lógica particular de toma de decisiones es más útil o relevante. Los sistemas complejos suelen emplear varios modelos simultáneamente, utilizando técnicas de aprendizaje conjunto como el bagging, el boosting o el stacking.
A medida que las herramientas de IA se vuelven más complejas y versátiles, necesitan cantidades cada vez mayores de datos y potencia informática para entrenarse y ejecutarse. En respuesta, los sistemas diseñados para ejecutar tareas específicas en un único ámbito están dando paso a modelos fundacionales, preentrenados con grandes conjuntos de datos no etiquetados y capaces de una amplia gama de aplicaciones. Estos versátiles modelos fundacionales pueden ajustarse a tareas específicas.
Aunque ambos términos se utilizan indistintamente en este contexto, no significan lo mismo.
En términos sencillos, un modelo de IA se utiliza para hacer predicciones o tomar decisiones y un algoritmo es la lógica con la que funciona ese modelo de IA.
Los modelos de IA pueden automatizar la toma de decisiones, pero sólo los modelos capaces de machine learning (ML) son capaces de optimizar de forma autónoma su rendimiento a lo largo del tiempo.
Aunque todos los modelos de ML son IA, no toda la IA es ML. Los modelos de IA más elementales son una serie de sentencias "if-then-else" con reglas programadas explícitamente por un científico de datos. A estos modelos se les llama motores de reglas, sistemas expertos, grafos de conocimiento o IA simbólica.
Los modelos de machine learning utilizan IA estadística en lugar de IA simbólica. Mientras que los modelos de IA basados en reglas deben programarse explícitamente, los modelos de ML se "entrenan" aplicando sus marcos matemáticos a un conjunto de datos de muestra cuyos puntos de datos sirven de base para las futuras predicciones del modelo en el mundo real.
Las técnicas de modelos de ML generalmente se pueden dividir en tres grandes categorías: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo.
El deep learning es un subconjunto más evolucionado del aprendizaje no supervisado cuya estructura de redes neuronales intenta imitar la del cerebro humano. Múltiples capas de nodos interconectados ingieren datos de manera progresiva, extraen características clave, identifican relaciones y refinan las decisiones en un proceso denominado propagación hacia delante. Otro proceso llamado retropropagación aplica modelos que calculan los errores y ajustan los pesos y sesgos del sistema en consecuencia. La mayoría de las aplicaciones de IA más avanzadas, como los modelos de lenguaje de gran tamaño (LLM) que impulsan los chatbots modernos, utilizan deep learning, el cual requiere una gran cantidad de recursos computacionales.
Una forma de diferenciar los modelos de machine learning es por su metodología fundamental: la mayoría se pueden clasificar como generativos o discriminativos. La distinción radica en cómo modelan los datos en un espacio determinado.
Los algoritmos generativos, que generalmente implican un aprendizaje no supervisado, modelan la distribución de puntos de datos, con el objetivo de predecir la probabilidad conjunta P(x,y) de que un punto de datos dado aparezca en un espacio particular. Un modelo generativo de visión artificial podría identificar correlaciones como "las cosas que parecen coches suelen tener cuatro ruedas" o "es improbable que los ojos aparezcan por encima de las cejas".
Estas predicciones pueden informar la generación de outputs que el modelo considera altamente probables. Por ejemplo, un modelo generativo entrenado con datos de texto puede potenciar las sugerencias ortográficas y de autocompletado; en el nivel más complejo, puede generar un texto completamente nuevo. Básicamente, cuando un LLM produce un texto, ha calculado una alta probabilidad de que esa secuencia de palabras se ensamble en respuesta a la solicitud que se le dio.
Otros usos habituales de los modelos generativos son la síntesis de imágenes, la composición musical, la transferencia de estilos y la traducción de idiomas.
Algunos ejemplos de modelos generativos incluyen:
Los algoritmos discriminativos, que suelen implicar el aprendizaje supervisado, modelan los límites entre clases de datos (o "límites de decisión"), con el objetivo de predecir la probabilidad condicional P(y|x) de que un punto de datos dado (x) caiga en una clase determinada (y). Un modelo discriminativo de visión artificial puede aprender la diferencia entre "coche" y "no coche" discerniendo unas pocas diferencias clave (como "si no tiene ruedas, no es un coche"), lo que le permite ignorar muchas correlaciones que un modelo generativo debe tener en cuenta. Por lo tanto, los modelos discriminativos tienden a requerir menos potencia de cálculo.
Los modelos discriminativos son muy adecuados para tareas de clasificación como el análisis de sentimientos, pero tienen muchos otros usos. Por ejemplo, los modelos de árboles de decisión y de bosques aleatorios desglosan los complejos procesos de toma de decisiones en una serie de nodos, en los que cada "hoja" representa una posible decisión de clasificación.
Si bien los modelos discriminativos o generativos pueden, en general, superarse unos a otros para determinados casos de uso en el mundo real, muchas tareas podrían realizarse con cualquiera de los dos tipos de modelos. Por ejemplo, los modelos discriminativos tienen muchos usos en el procesamiento del lenguaje natural (PLN) y a menudo superan a la IA generativa en tareas como la traducción automática (que implica la generación de texto traducido).
Del mismo modo, los modelos generativos pueden utilizarse para la clasificación mediante el teorema de Bayes. En lugar de determinar en qué lado de una frontera de decisión se encuentra una instancia (como haría un modelo discriminativo), un modelo generativo podría determinar la probabilidad de que cada clase genere la instancia y elegir la que tenga mayor probabilidad.
Muchos sistemas de IA emplean ambas cosas a la vez. En una red generativa adversarial, por ejemplo, un modelo generativo genera datos de muestra y un modelo discriminativo determina si esos datos son "reales" o "falsos". El output del modelo discriminativo se utiliza para entrenar el modelo generativo hasta que el discriminador ya no pueda discernir los datos "falsos" generados.
Otra forma de categorizar los modelos es por la naturaleza de las tareas para las que se utilizan. La mayoría de los algoritmos de modelos de IA clásicos realizan clasificación o regresión. Algunos son adecuados para ambos, y la mayoría de los modelos fundacionales aprovechan ambos tipos de funciones.
A veces, esta terminología puede resultar confusa. Por ejemplo, la regresión logística es un modelo discriminativo utilizado para la clasificación.
Los modelos de regresión predicen valores continuos (como el precio, la antigüedad, el tamaño o el tiempo). Se utilizan principalmente para determinar la relación entre una o más variables independientes (x) y una variable dependiente (y): dado x, predecir el valor de y.
Los modelos de clasificación predicen valores discretos. Como tales, se utilizan principalmente para determinar una etiqueta apropiada o para categorizar (es decir, clasificar). Puede ser una clasificación binaria, como "sí o no", "aceptar o rechazar", o una clasificación multiclase (como un motor de recomendación que sugiere el producto A, B, C o D).
Los algoritmos de clasificación tienen una amplia gama de usos, desde la categorización directa hasta la automatización de extracciones de características en redes de deep learning, pasando por avances sanitarios como la clasificación de imágenes de diagnóstico en radiología.
Algunos ejemplos comunes son:
El "aprendizaje" en el machine learning se logra entrenando modelos en conjuntos de datos de muestra. A continuación, las tendencias y correlaciones probabilísticas discernidas en esos conjuntos de datos de muestra se aplican al rendimiento de la función del sistema.
En el aprendizaje supervisado y semisupervisado, los científicos de datos deben etiquetar cuidadosamente estos datos de entrenamiento para optimizar los resultados. Si se extraen correctamente las características, el aprendizaje supervisado requiere menos datos de entrenamiento que el aprendizaje no supervisado.
Lo ideal es que los modelos de ML se entrenen con datos del mundo real. Esto, intuitivamente, garantiza mejor que el modelo refleje las circunstancias del mundo real que está diseñado para analizar o replicar. Pero basarse únicamente en datos del mundo real no siempre es posible, práctico u óptimo.
Cuantos más parámetros tiene un modelo, más datos se necesitan para entrenarlo. A medida que los modelos de deep learning crecen en tamaño, adquirir estos datos se vuelve cada vez más difícil. Esto es especialmente evidente en los LLM: el GPT-3 de OpenAI y el BLOOM de código abierto tienen más de 175 000 millones de parámetros.
A pesar de su conveniencia, el uso de datos disponibles públicamente puede plantear problemas normativos, como cuando los datos deben ser anónimos, así como cuestiones prácticas. Por ejemplo, los modelos de lenguaje entrenados en hilos de redes sociales pueden "aprender" hábitos o imprecisiones que no son ideales para el uso empresarial.
Los datos sintéticos ofrecen una solución alternativa: en lugar de utilizar un gran volumen de datos reales, se genera un conjunto de datos de entrenamiento muy similar a los originales, lo que evita los problemas de privacidad.
Los modelos de ML entrenados con datos del mundo real absorberán inevitablemente los sesgos sociales que se reflejarán en esos datos. Si no se eliminan, estos sesgos perpetuarán y exacerbarán la desigualdad en cualquier ámbito en el que se utilicen estos modelos, como la sanidad o la contratación. La investigación en ciencia de datos ha dado lugar a algoritmos como FairIJ y técnicas de perfeccionamiento de modelos como FairReprogram para abordar la desigualdad inherente a los datos.
El sobreajuste se produce cuando un modelo de ML se ajusta demasiado a los datos de entrenamiento, lo que provoca que la información irrelevante (o "ruido") en el conjunto de datos de muestra influya en el rendimiento del modelo. El infraajuste es justo lo opuesto: el entrenamiento incorrecto o inadecuado.
También llamados modelos de base o preentrenados, los modelos fundacionales son modelos de deep learning preentrenados en conjuntos de datos a gran escala para aprender características y patrones generales. Sirven como puntos de partida que se pueden afinar o adaptar para aplicaciones de IA más específicas.
En lugar de construir modelos desde cero, los desarrolladores pueden modificar las capas de las redes neuronales, ajustar los parámetros o adaptar las arquitecturas a las necesidades específicas de cada dominio. Sumado a la amplitud y profundidad de conocimientos y experiencia de un modelo amplio y probado, esto ahorra mucho tiempo y recursos en el entrenamiento de modelos. Así, los modelos fundacionales permiten un desarrollo y una implementación más rápidos de los sistemas de IA.
La afinación de modelos preentrenados de cara a la realización de tareas especializadas ha dado paso recientemente a la técnica de prompt-tuning, que introduce señales de front-end en el modelo para guiarlo hacia el tipo de decisión o predicción deseado.
Según David Cox, codirector del MIT-IBM Watson AI Lab, volver a implementar un modelo de deep learning entrenado (en lugar de entrenar o volver a entrenar un nuevo modelo) puede reducir el uso de ordenadores y energía en más de 1000 veces, con el consiguiente Y significativo ahorro de costes1.
Las pruebas sofisticadas son esenciales para la optimización, ya que miden si un modelo está bien entrenado para lograr la tarea prevista. Diferentes modelos y tareas se prestan a diferentes métricas y metodologías.
Probar el rendimiento de un modelo requiere un grupo de control con el que juzgarlo, ya que probar un modelo con los mismos datos con los que se entrenó puede provocar un sobreajuste. En la validación cruzada, partes de los datos de entrenamiento se dejan a un lado o se vuelven a muestrear para crear ese grupo de control. Las variantes incluyen métodos no exhaustivos, como la validación cruzada k-fold, holdout y monte carlo, o métodos exhaustivos, como la validación cruzada leave-p-out.
Estas métricas comunes incorporan valores de resultados discretos como verdaderos positivos (TP), verdaderos negativos (TN), falsos positivos (FP) y falsos negativos (FN).
Como los algoritmos de regresión predicen valores continuos en lugar de discretos, se miden con diferentes métricas en las que "N" representa el número de observaciones. A continuación se enumeran las métricas más utilizadas para evaluar los modelos de regresión.
Para implementar y ejecutar un modelo de IA se requiere un dispositivo informático o un servidor con suficiente potencia de procesamiento y capacidad de almacenamiento. Si no se planifican adecuadamente los canales de IA y los recursos informáticos, los prototipos, por lo demás exitosos, pueden no superar la fase de prueba de concepto.
Explore la biblioteca de modelos fundacionales de IBM en la cartera de watsonx para escalar la IA generativa para su negocio con confianza.
Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.
Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
1 "What is prompt tuning?". IBM Research. 15 de febrero de 2023.
2 "Machine learning model evaluation". Geeksforgeeks.org. 2022.