¿Qué es un modelo de IA?

Empresaria sonriente y empresario trabajando en la oficina moderna

¿Qué es un modelo de IA?

Un modelo de IA es un programa que ha sido entrenado con un conjunto de datos para reconocer determinados patrones o tomar decisiones sin más intervención humana. Los modelos de inteligencia artificial aplican diferentes algoritmos a las entradas (o inputs) de datos relevantes para lograr las salidas (u outputs) para las que han sido programados.

En pocas palabras, un modelo de IA se define por su capacidad para tomar decisiones o hacer predicciones de forma autónoma, en lugar de simular la inteligencia humana. Uno de los primeros modelos de IA que tuvieron éxito fueron los programas de ajedrez y damas a principios de los años 50: los modelos permitían a los programas realizar movimientos en respuesta directa al oponente humano, en lugar de seguir una serie de movimientos preestablecidos.

Los diferentes tipos de modelos de IA son más adecuados para tareas específicas, o dominios, para los que su lógica particular de toma de decisiones es más útil o relevante. Los sistemas complejos suelen emplear varios modelos simultáneamente, utilizando técnicas de aprendizaje conjunto como el bagging, el boosting o el stacking.

A medida que las herramientas de IA se vuelven más complejas y versátiles, necesitan cantidades cada vez mayores de datos y potencia informática para entrenarse y ejecutarse. En respuesta, los sistemas diseñados para ejecutar tareas específicas en un único ámbito están dando paso a modelos fundacionales, preentrenados con grandes conjuntos de datos no etiquetados y capaces de una amplia gama de aplicaciones. Estos versátiles modelos fundacionales pueden ajustarse a tareas específicas.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Algoritmos vs. modelos

Aunque ambos términos se utilizan indistintamente en este contexto, no significan lo mismo.

  • Los algoritmos son procedimientos, que se describen a menudo en lenguaje matemático o pseudocódigo, que se aplican a un conjunto de datos para lograr una función o propósito determinados.
  • Los modelos son el output de un algoritmo que se ha aplicado a un conjunto de datos.

En términos sencillos, un modelo de IA se utiliza para hacer predicciones o tomar decisiones y un algoritmo es la lógica con la que funciona ese modelo de IA.

AI Academy

Elija el modelo de IA adecuado para su caso de uso

Más grande no siempre es mejor cuando se trata de modelos de IA. Aprenda a encontrar la solución que mejor se adapte a las necesidades de su empresa. A continuación, consiga la guía que le ayudará a pasar a la acción.

Modelos de IA y machine learning

Los modelos de IA pueden automatizar la toma de decisiones, pero sólo los modelos capaces de machine learning (ML) son capaces de optimizar de forma autónoma su rendimiento a lo largo del tiempo.

Aunque todos los modelos de ML son IA, no toda la IA es ML. Los modelos de IA más elementales son una serie de sentencias "if-then-else" con reglas programadas explícitamente por un científico de datos. A estos modelos se les llama motores de reglas, sistemas expertos, grafos de conocimiento o IA simbólica.

Los modelos de machine learning utilizan IA estadística en lugar de IA simbólica. Mientras que los modelos de IA basados en reglas deben programarse explícitamente, los modelos de ML se "entrenan" aplicando sus marcos matemáticos a un conjunto de datos de muestra cuyos puntos de datos sirven de base para las futuras predicciones del modelo en el mundo real.

Las técnicas de modelos de ML generalmente se pueden dividir en tres grandes categorías: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo.

  • Aprendizaje supervisado: también conocido como machine learning "clásico", el aprendizaje supervisado requiere que un experto humano etiquete los datos de entrenamiento. Un científico de datos que entrene un modelo de reconocimiento de imágenes para identificar perros y gatos debe etiquetar las imágenes de muestra como "perro" o "gato", así como las características clave que informan esas etiquetas primarias, como el tamaño, la forma o el pelaje. El modelo puede utilizar entonces estas etiquetas durante el entrenamiento para inferir las características visuales típicas de "perro" y "gato".
  • Aprendizaje no supervisado: a diferencia de las técnicas de aprendizaje supervisado, el aprendizaje no supervisado no supone la existencia externa de respuestas “correctas” o “incorrectas” y, por lo tanto, no requiere etiquetado. Estos algoritmos detectan patrones inherentes en conjuntos de datos para agrupar puntos de datos e informar predicciones. Por ejemplo, las empresas de comercio electrónico como Amazon utilizan modelos de asociación no supervisados para impulsar los motores de recomendación.
  • Aprendizaje por refuerzo: en el aprendizaje por refuerzo, un modelo aprende de manera holística mediante ensayo y error, y recompensa sistemáticamente los outputs correctos (o penaliza los incorrectos). Los modelos de refuerzo se utilizan en las sugerencias de las redes sociales, la negociación algorítmica de acciones e incluso en los vehículos autónomos.

El deep learning es un subconjunto más evolucionado del aprendizaje no supervisado cuya estructura de redes neuronales intenta imitar la del cerebro humano. Múltiples capas de nodos interconectados ingieren datos de manera progresiva, extraen características clave, identifican relaciones y refinan las decisiones en un proceso denominado propagación hacia delante. Otro proceso llamado retropropagación aplica modelos que calculan los errores y ajustan los pesos y sesgos del sistema en consecuencia. La mayoría de las aplicaciones de IA más avanzadas, como los modelos de lenguaje de gran tamaño (LLM) que impulsan los chatbots modernos, utilizan deep learning, el cual requiere una gran cantidad de recursos computacionales.

Modelos generativos vs. modelos discriminativos

Una forma de diferenciar los modelos de machine learning es por su metodología fundamental: la mayoría se pueden clasificar como generativos o discriminativos. La distinción radica en cómo modelan los datos en un espacio determinado.

Modelos generativos

Los algoritmos generativos, que generalmente implican un aprendizaje no supervisado, modelan la distribución de puntos de datos, con el objetivo de predecir la probabilidad conjunta P(x,y) de que un punto de datos dado aparezca en un espacio particular. Un modelo generativo de visión artificial podría identificar correlaciones como "las cosas que parecen coches suelen tener cuatro ruedas" o "es improbable que los ojos aparezcan por encima de las cejas".

Estas predicciones pueden informar la generación de outputs que el modelo considera altamente probables. Por ejemplo, un modelo generativo entrenado con datos de texto puede potenciar las sugerencias ortográficas y de autocompletado; en el nivel más complejo, puede generar un texto completamente nuevo. Básicamente, cuando un LLM produce un texto, ha calculado una alta probabilidad de que esa secuencia de palabras se ensamble en respuesta a la solicitud que se le dio.

Otros usos habituales de los modelos generativos son la síntesis de imágenes, la composición musical, la transferencia de estilos y la traducción de idiomas.

Algunos ejemplos de modelos generativos incluyen:

  • Modelos de difusión: los modelos de difusión añaden gradualmente ruido gaussiano a los datos de entrenamiento hasta hacerlos irreconocibles y, a continuación, aprenden un proceso de "eliminación de ruido" inverso que puede sintetizar el output (normalmente imágenes) a partir de un ruido inicial aleatorio.
  • Autocodificadores variacionales (VAE): los VAE constan de un codificador que comprime los datos de entrada y un descodificador que invierte el proceso y traza la distribución probable de los datos.
  • Modelos de transformador: los modelos de transformador utilizan técnicas matemáticas denominadas "atención" o "autoatención" para identificar cómo influyen entre sí los distintos elementos de una serie de datos. El "GPT" en Chat-GPT de OpenAI significa "transformador generativo preentrenado" ("Generative Pretrained Transformer" en inglés).

Modelos discriminativos

Los algoritmos discriminativos, que suelen implicar el aprendizaje supervisado, modelan los límites entre clases de datos (o "límites de decisión"), con el objetivo de predecir la probabilidad condicional P(y|x) de que un punto de datos dado (x) caiga en una clase determinada (y). Un modelo discriminativo de visión artificial puede aprender la diferencia entre "coche" y "no coche" discerniendo unas pocas diferencias clave (como "si no tiene ruedas, no es un coche"), lo que le permite ignorar muchas correlaciones que un modelo generativo debe tener en cuenta. Por lo tanto, los modelos discriminativos tienden a requerir menos potencia de cálculo.

Los modelos discriminativos son muy adecuados para tareas de clasificación como el análisis de sentimientos, pero tienen muchos otros usos. Por ejemplo, los modelos de árboles de decisión y de bosques aleatorios desglosan los complejos procesos de toma de decisiones en una serie de nodos, en los que cada "hoja" representa una posible decisión de clasificación.

Casos de uso

Si bien los modelos discriminativos o generativos pueden, en general, superarse unos a otros para determinados casos de uso en el mundo real, muchas tareas podrían realizarse con cualquiera de los dos tipos de modelos. Por ejemplo, los modelos discriminativos tienen muchos usos en el procesamiento del lenguaje natural (PLN) y a menudo superan a la IA generativa en tareas como la traducción automática (que implica la generación de texto traducido).

Del mismo modo, los modelos generativos pueden utilizarse para la clasificación mediante el teorema de Bayes. En lugar de determinar en qué lado de una frontera de decisión se encuentra una instancia (como haría un modelo discriminativo), un modelo generativo podría determinar la probabilidad de que cada clase genere la instancia y elegir la que tenga mayor probabilidad.

Muchos sistemas de IA emplean ambas cosas a la vez. En una red generativa adversarial, por ejemplo, un modelo generativo genera datos de muestra y un modelo discriminativo determina si esos datos son "reales" o "falsos". El output del modelo discriminativo se utiliza para entrenar el modelo generativo hasta que el discriminador ya no pueda discernir los datos "falsos" generados.

Modelos de clasificación frente a modelos de regresión

Otra forma de categorizar los modelos es por la naturaleza de las tareas para las que se utilizan. La mayoría de los algoritmos de modelos de IA clásicos realizan clasificación o regresión. Algunos son adecuados para ambos, y la mayoría de los modelos fundacionales aprovechan ambos tipos de funciones.

A veces, esta terminología puede resultar confusa. Por ejemplo, la regresión logística es un modelo discriminativo utilizado para la clasificación.

Modelos de regresión

Los modelos de regresión predicen valores continuos (como el precio, la antigüedad, el tamaño o el tiempo). Se utilizan principalmente para determinar la relación entre una o más variables independientes (x) y una variable dependiente (y): dado x, predecir el valor de y.

  • Algoritmos como la regresión lineal, y variantes afines como la regresión cuantil, son útiles para tareas como la previsión, el análisis de la elasticidad de los precios y la evaluación del riesgo.
  • Algoritmos como la regresión polinómica y la regresión de vectores de soporte (SVR) modelan complejas relaciones no lineales entre variables.
  • Ciertos modelos generativos, como la autorregresión y los autocodificadores variacionales, dan cuenta no solo de las relaciones correlativas entre los valores pasados y futuros, sino también de las relaciones causales. Esto los hace particularmente útiles para prever escenarios meteorológicos y predecir fenómenos climáticos extremos.

Modelos de clasificación

Los modelos de clasificación predicen valores discretos. Como tales, se utilizan principalmente para determinar una etiqueta apropiada o para categorizar (es decir, clasificar). Puede ser una clasificación binaria, como "sí o no", "aceptar o rechazar", o una clasificación multiclase (como un motor de recomendación que sugiere el producto A, B, C o D).

Los algoritmos de clasificación tienen una amplia gama de usos, desde la categorización directa hasta la automatización de extracciones de características en redes de deep learning, pasando por avances sanitarios como la clasificación de imágenes de diagnóstico en radiología.

Algunos ejemplos comunes son:

  • Naïve bayes: un algoritmo generativo de aprendizaje supervisado utilizado habitualmente en el filtrado de spam y la clasificación de documentos.
  • Análisis discriminante lineal: utilizado para resolver el solapamiento contradictorio entre múltiples características que influyen en la clasificación.
  • Regresión logística: predice probabilidades continuas que luego se utilizan como proxy para los rangos de clasificación.

Entrenamiento de modelos de IA

El "aprendizaje" en el machine learning se logra entrenando modelos en conjuntos de datos de muestra. A continuación, las tendencias y correlaciones probabilísticas discernidas en esos conjuntos de datos de muestra se aplican al rendimiento de la función del sistema.

En el aprendizaje supervisado y semisupervisado, los científicos de datos deben etiquetar cuidadosamente estos datos de entrenamiento para optimizar los resultados. Si se extraen correctamente las características, el aprendizaje supervisado requiere menos datos de entrenamiento que el aprendizaje no supervisado.

Lo ideal es que los modelos de ML se entrenen con datos del mundo real. Esto, intuitivamente, garantiza mejor que el modelo refleje las circunstancias del mundo real que está diseñado para analizar o replicar. Pero basarse únicamente en datos del mundo real no siempre es posible, práctico u óptimo.

Aumento del tamaño y la complejidad de los modelos

Cuantos más parámetros tiene un modelo, más datos se necesitan para entrenarlo. A medida que los modelos de deep learning crecen en tamaño, adquirir estos datos se vuelve cada vez más difícil. Esto es especialmente evidente en los LLM: el GPT-3 de OpenAI y el BLOOM de código abierto tienen más de 175 000 millones de parámetros.

A pesar de su conveniencia, el uso de datos disponibles públicamente puede plantear problemas normativos, como cuando los datos deben ser anónimos, así como cuestiones prácticas. Por ejemplo, los modelos de lenguaje entrenados en hilos de redes sociales pueden "aprender" hábitos o imprecisiones que no son ideales para el uso empresarial.

Los datos sintéticos ofrecen una solución alternativa: en lugar de utilizar un gran volumen de datos reales, se genera un conjunto de datos de entrenamiento muy similar a los originales, lo que evita los problemas de privacidad.

Eliminación de sesgos

Los modelos de ML entrenados con datos del mundo real absorberán inevitablemente los sesgos sociales que se reflejarán en esos datos. Si no se eliminan, estos sesgos perpetuarán y exacerbarán la desigualdad en cualquier ámbito en el que se utilicen estos modelos, como la sanidad o la contratación. La investigación en ciencia de datos ha dado lugar a algoritmos como FairIJ y técnicas de perfeccionamiento de modelos como FairReprogram para abordar la desigualdad inherente a los datos.

Sobreajuste e infraajuste

El sobreajuste se produce cuando un modelo de ML se ajusta demasiado a los datos de entrenamiento, lo que provoca que la información irrelevante (o "ruido") en el conjunto de datos de muestra influya en el rendimiento del modelo. El infraajuste es justo lo opuesto: el entrenamiento incorrecto o inadecuado.

Modelos fundacionales

También llamados modelos de base o preentrenados, los modelos fundacionales son modelos de deep learning preentrenados en conjuntos de datos a gran escala para aprender características y patrones generales. Sirven como puntos de partida que se pueden afinar o adaptar para aplicaciones de IA más específicas.

En lugar de construir modelos desde cero, los desarrolladores pueden modificar las capas de las redes neuronales, ajustar los parámetros o adaptar las arquitecturas a las necesidades específicas de cada dominio. Sumado a la amplitud y profundidad de conocimientos y experiencia de un modelo amplio y probado, esto ahorra mucho tiempo y recursos en el entrenamiento de modelos. Así, los modelos fundacionales permiten un desarrollo y una implementación más rápidos de los sistemas de IA.

La afinación de modelos preentrenados de cara a la realización de tareas especializadas ha dado paso recientemente a la técnica de prompt-tuning, que introduce señales de front-end en el modelo para guiarlo hacia el tipo de decisión o predicción deseado.

Según David Cox, codirector del MIT-IBM Watson AI Lab, volver a implementar un modelo de deep learning entrenado (en lugar de entrenar o volver a entrenar un nuevo modelo) puede reducir el uso de ordenadores y energía en más de 1000 veces, con el consiguiente Y significativo ahorro de costes1.

Probar modelos de IA

Las pruebas sofisticadas son esenciales para la optimización, ya que miden si un modelo está bien entrenado para lograr la tarea prevista. Diferentes modelos y tareas se prestan a diferentes métricas y metodologías.

Validación cruzada

Probar el rendimiento de un modelo requiere un grupo de control con el que juzgarlo, ya que probar un modelo con los mismos datos con los que se entrenó puede provocar un sobreajuste. En la validación cruzada, partes de los datos de entrenamiento se dejan a un lado o se vuelven a muestrear para crear ese grupo de control. Las variantes incluyen métodos no exhaustivos, como la validación cruzada k-fold, holdout y monte carlo, o métodos exhaustivos, como la validación cruzada leave-p-out.

Métricas del modelo de clasificación

Estas métricas comunes incorporan valores de resultados discretos como verdaderos positivos (TP), verdaderos negativos (TN), falsos positivos (FP) y falsos negativos (FN).

  • La precisión es la relación entre las predicciones correctas y el total de predicciones: (TP+TN) / (TP+TN+FP+FN). No funciona bien con conjuntos de datos desequilibrados.
  • La precisión mide la frecuencia con la que las predicciones positivas son precisas: TP/(TP+FP).
  • La recuperación mide la frecuencia con la que se capturan con éxito los positivos: TP/(TP+FN).
  • La puntuación de la F1 es la media armónica de la precisión y la recuperación: (2×precisión×recuperación)/(precisión+recuperación). Equilibra las compensaciones entre precisión (que provoca falsos negativos) y recuperación (que provoca falsos positivos).
  • Una matriz de confusión representa visualmente el grado de confianza (o confusión) de su algoritmo para cada posible clasificación.

Métricas del modelo de regresión2

Como los algoritmos de regresión predicen valores continuos en lugar de discretos, se miden con diferentes métricas en las que "N" representa el número de observaciones. A continuación se enumeran las métricas más utilizadas para evaluar los modelos de regresión.

  • El error absoluto medio (MAE) mide la diferencia media entre los valores predichos (ypred) y los valores reales (yreal) en términos absolutos: ∑(ypred – yreal) / N.
  • El error cuadrático medio (MSE) eleva al cuadrado el error medio para penalizar agresivamente los valores atípicos: ∑(ypred – yreal)2 / N.
  • El error cuadrático medio raíz (RSME) mide las desviaciones estándar en la misma unidad que los resultados: √ (∑(ypred – yreal)2 / N).
  • El error medio porcentual absoluto (MAPE) expresa el error medio en porcentaje.

Implementación de modelos de IA

Para implementar y ejecutar un modelo de IA se requiere un dispositivo informático o un servidor con suficiente potencia de procesamiento y capacidad de almacenamiento. Si no se planifican adecuadamente los canales de IA y los recursos informáticos, los prototipos, por lo demás exitosos, pueden no superar la fase de prueba de concepto.

  • Los marcos de machine learning de código abierto como PyTorch, Tensorflow y Caffe2 pueden ejecutar modelos de ML con unas pocas líneas de código.
  • Las unidades centrales de procesamiento (CPU) son una fuente eficaz de potencia de cálculo para los algoritmos de aprendizaje que no requieren una amplia computación paralela.
  • Las unidades de procesamiento gráfico (GPU) tienen una mayor capacidad de procesamiento paralelo, lo que las hace más adecuadas para los enormes conjuntos de datos y la complejidad matemática de las redes neuronales de deep learning.
Soluciones relacionadas
Modelos fundacionales

Explore la biblioteca de modelos fundacionales de IBM en la cartera de watsonx para escalar la IA generativa para su negocio con confianza.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Explore la biblioteca de modelos fundacionales de IBM en la cartera de IBM watsonx para escalar la IA generativa para su negocio con confianza.

Descubra watsonx.ai Explore los modelos de IA de IBM Granite
Notas a pie de página

1 "What is prompt tuning?". IBM Research. 15 de febrero de 2023.

2 "Machine learning model evaluation". Geeksforgeeks.org. 2022.