Modelos de cimientos compatibles con watsonx.ai

Puede trabajar con modelos de base de terceros y IBM en IBM watsonx.ai.You puede utilizar modelos de base proporcionados por IBM y listos para su uso inmediato, o desplegar modelos de base bajo demanda para utilizarlos exclusivamente en su organización.

Cómo elegir un modelo

Para revisar los factores que pueden ayudarte a elegir un modelo, como las tareas e idiomas compatibles, consulta Elegir un modelo y Puntos de referencia del modelo Foundation.

Para obtener más información sobre los modelos de base proporcionados con watsonx.ai para la incrustación y la reclasificación de texto, consulte Modelos de codificador compatibles.

Acceso a modelos de otros proveedores a través de la pasarela de modelos

A través de la pasarela de modelos, puedes acceder de forma segura a modelos base de distintos proveedores e interactuar con ellos. La pasarela de modelos ofrece una API de OpenAI-compatible que redirige las solicitudes a estos modelos básicos. Utiliza la pasarela de modelos para alternar de forma eficiente entre varios proveedores de modelos, enrutando y formateando las solicitudes a través de una interfaz unificada. Con estos modelos, puedes crear e implementar agentes de IA, patrones RAG y mucho más.

Para obtener más información, consulte «Puerta de enlace modelo ».

Atención:

La disponibilidad del modelo Foundation varía según la ubicación del centro de datos. Para más detalles, consulte Disponibilidad regional de los modelos de cimientos.

Modelos de cimientos por método de despliegue

Dependiendo del método de implementación, puede utilizar modelos de base en hardware multiusuario directamente o implementar modelos en hardware dedicado para su uso por parte de su organización. Para obtener más información sobre las diversas formas en que puede utilizar para implementar modelos, consulte Métodos de implementación de modelos de Foundation.

Tabla 1. Modelos de cimientos por método de despliegue
Proveedor Proporcionado con watsonx.ai
(Pago por token)
Despliegue a la carta
(Pago por horas)
IBM granite-4-h-small
granite-guardian-3-8b
granite-3-8b-base
granite-3-8b-instruct (obsoleto)
granite-8b-code-instruct
granite-4-h-small
granite-4-h-tiny
granite-4-h-micro
granite-vision-3-3-2b
granite-3-3-8b-instruct
granite-3-3-2b-instruct
granite-3-2-8b-instruct
granite-3-1-8b-instruct
granite-3-1-8b-base
granite-7b-lab
granite-8b-japanese
granite-13b-chat-v2
granite-20b-multilingual
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Meta - llama-4-maverick-17b-128e-instruct-fp8
- llama-3-3-70b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct (obsoleto)
- llama-guard-3-11b-vision-instruct
- llama-3-405b-instruct (obsoleto)
llama-4-scout-17b-16e-instruct-fp8-dynamic
llama-3-2-90b-vision-instruct
llama-3-1-405b-instruct-fp8
llama-4-maverick-17b-128e-instruct-int4
llama-4-maverick-17b-128e-instruct-fp8
llama-3-1-70b-gptq
llama-3-1-70b
llama-3-2-11b-vision-instruct
llama-3-3-70b-instruct
llama-3-3-70b-instruct-hf
llama-3-1-70b-instruct
llama-2-70b-chat
llama-3-8b-instruct
llama-3-70b-instruct
llama-3-1-8b
llama-3-1-8b-instruct
Mistral AI mistral-large
-2512• mistral-medium-2505
ministral-8b-instruct-2512
ministral-3b-instruct-2512
mistral-large -2512mistral-small-3-2-24b-instruct-2506
mistral-medium-2508
mistral-medium-2505
mistral-small-3-1-24b-instruct-2503

ministral-8b-instruct-2410
codestral-2501
• • mistral-large-instruct-2407
mistral-large-instruct-2411
• • mistral-nemo-instruct-2407
• • • • • • • • • • • mixtral-8x7b-base
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • pixtral-12b
BigScience mt0-xxl-13b
Code Llama codellama-34b-instruct-hf
DeepSeek IA deepseek-r1-distill-llama-8b
deepseek-r1-distill-llama-70b
SDAIA allam-1-13b-instruct allam-1-13b-instruct
Proyecto de Transcripción y Traducción Unificadas para la Realidad Ampliada (UTTER) - eurollm-1-7b-instr
- eurollm-9b-instruct
LumiOpen poro-34b-chat
OpenAI gpt-oss-120b
gpt-oss-20b
gpt-oss-120b

Modelos de base proporcionados que están listos para usar

Una colección de modelos de base de IBM y de código abierto se despliegan en IBM watsonx.ai. Puede solicitar estos modelos de cimentación en el Prompt Lab o mediante programación.

Para obtener detalles sobre la medición de la inferencia del modelo base en watsonx.ai, consulte Tarifas de facturación para la inferencia de modelos base. Para más información sobre la descripción del servicio IBM watsonx.ai con varios proveedores de nube, consulte:

Puede trabajar con los siguientes tipos de modelos de cimentación proporcionados:

IBM modelos de base

En la siguiente tabla se enumeran los modelos de base IBM compatibles que IBM proporciona para la inferencia.

También puede acceder a algunos modelos de la fundación IBM desde repositorios de terceros, como Hugging Face. IBM los modelos de cimientos que obtenga de un repositorio de terceros no serán indemnizados por IBM. Sólo los modelos de la fundación IBM a los que acceda desde watsonx.ai están indemnizados por IBM. Para más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de Relación con el Cliente de IBM.

Atención:Si su región watsonx es el centro de datos de Dallas en IBM Cloud, puede seguir los enlaces de la tarjeta modelo. Si no, busque el nombre del modelo en el Centro de recursos. Es posible que el modelo no esté disponible en todas las regiones o plataformas en la nube.
Tabla 2a. IBM modelos de base provistos de un watsonx.ai o para inferencias
Nombre de modelo ID de modelo API Precio de
USD/1,000 fichas)
Precio de
USD/1,000 fichas)
Ventana contextual
(tokens de entrada + salida)
Más información
granite-4-h-small ibm/granite-4-h-small $0.0000636 $0.000265 131.072 - Modelo de tarjeta
- Página web
granite-3-8b-instruct ibm/granite-3-8b-instruct $0.000212 $0.000212 131.072 - Ficha modelo
- Página web
- Documento de investigación
granite-guardian-3-8b ibm/granite-guardian-3-8b $0.0002 $0.0002 131.072 Ficha del modelo
Sitio web
granite-8b-code-instruct ibm/granite-8b-code-instruct $0.000636 $0.000636 128.000 - Ficha modelo
- Página web
- Documento de investigación

 

Tabla 2b. IBM Modelos de series temporales proporcionados con watsonx.ai para pronosticar valores futuros
Nombre de modelo ID de modelo API Precio de entrada (
) (puntos de datos USD/1,000 )
Precio de salida
( USD/1,000 data points)
Longitud del contexto
Puntos de datos mínimos
Más información
granite-ttm-512-96-r2 ibm/granite-ttm-512-96-r2 $0.0001378 $0.0004028 512 - Modelo de ficha
- Página web
- Documento de investigación
granite-ttm-1024-96-r2 ibm/granite-ttm-1024-96-r2 $0.0001378 $0.0004028 1.024 - Modelo de ficha
- Página web
- Documento de investigación
granite-ttm-1536-96-r2 ibm/granite-ttm-1536-96-r2 $0.0001378 $0.0004028 1.536 - Modelo de ficha
- Página web
- Documento de investigación

 

Modelos de bases de terceros

La siguiente tabla enumera los modelos de fundaciones de terceros compatibles que se proporcionan con watsonx.ai.

Atención:Si su región watsonx es el centro de datos de Dallas en IBM Cloud, puede seguir los enlaces de la tarjeta modelo. Si no, busque el nombre del modelo en el Centro de recursos. Es posible que el modelo no esté disponible en todas las regiones o plataformas en la nube.
Tabla 3. Modelos de fundaciones de terceros compatibles con watsonx.ai
Nombre de modelo ID de modelo API Proveedor Precio de
USD/1,000 fichas)
Precio de
USD/1,000 fichas)
Ventana contextual
(tokens de entrada + salida)
Más información
allam-1-13b-instruct sdaia/allam-1-13b-instruct Centro Nacional de Inteligencia Artificial y Autoridad Saudita de Datos e Inteligencia Artificial $0.001908 $0.001908 4.096 - Modelo de tarjeta
gpt-oss-120b openai/gpt-oss-120b OpenAI $0.000159 $0.000636 131.072 - Modelo de tarjeta
- OpenAI blog
llama-4-maverick-17b-128e-instruct-fp8 meta-llama/llama-4-maverick-17b-128e-instruct-fp8 Meta $0.000371 $0.001484 131.072 - Modelo de tarjeta
- ' Meta AI blog
llama-3-3-70b-instruct meta-llama/llama-3-3-70b-instruct Meta $0.0007526 $0.0007526 131.072 - Modelo de tarjeta
- ' Meta AI blog
llama-3-2-11b-vision-instruct meta-llama/llama-3-2-11b-vision-instruct Meta $0.000371 $0.000371 131.072 - Modelo de ficha
- ' Meta AI blog
- Documento de investigación
llama-3-2-90b-vision-instruct meta-llama/llama-3-2-90b-vision-instruct Meta $0.00212 $0.00212 131.072 - Modelo de ficha
- ' Meta AI blog
- Documento de investigación
llama-guard-3-11b-vision meta-llama/llama-guard-3-11b-vision Meta $0.000371 $0.000371 131.072 - Modelo de ficha
- ' Meta AI blog
- Documento de investigación
llama-3-405b-instruct meta-llama/llama-3-405b-instruct Meta $0.0053 $0.01696 16.384 - Modelo de tarjeta
- ' Meta AI blog
mistral-large-2512 mistralai/mistral-large-2512 Mistral AI $0.000636 $0.001908 256 000 Tarjeta
de modelo • Entrada de blog para Mistral Large 3
mistral-medium-2505 mistralai/mistral-medium-2505 Mistral AI $0.00337 $0.01007 131.072 - Tarjeta modelo
- Blog post para Mistral Medium 3
mistral-small-3-1-24b-instruct-2503 mistralai/mistral-small-3-1-24b-instruct-2503 Mistral AI $0.000106 $0.000318 131.072 Tarjeta modelo
Entrada de blog para Mistral 3.1
mt0-xxl-13b bigscience/mt0-xxl BigScience $0.001908 $0.001908 4.096 - Modelo de tarjeta
" - Documento de investigación

Implantar modelos de cimientos bajo demanda

Puede trabajar con un modelo de fundación de un conjunto de modelos seleccionados por la Fundación de la Familia Tiffany ( IBM ) para implementarlo para uso exclusivo de su organización.

Puede elegir desplegar los siguientes modelos de cimientos bajo demanda:

Atención:

El despliegue de modelos a petición especificando el tamaño de la configuración de despliegue ha quedado obsoleto. Utilice la configuración de hardware de la GPU para la implantación de nuevos modelos y para calcular el precio de los modelos de alojamiento. Para obtener más información sobre los entornos de alojamiento de modelos y los precios de los modelos de implementación bajo demanda, consulte Detalles de facturación para activos de IA generativa.

IBM desplegar modelos de base bajo demanda

La siguiente tabla enumera los modelos de bases e IBM es que puede implementar bajo demanda.

Algunos modelos de cimientos de IBM también están disponibles en repositorios de terceros, como Hugging Face. IBM los modelos de cimientos que obtenga de un repositorio de terceros no serán indemnizados por IBM. Sólo los modelos de la fundación IBM a los que acceda desde watsonx.ai están indemnizados por IBM. Para más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de Relación con el Cliente de IBM.

Tabla 4. IBM modelos de cimientos disponibles para desplegar bajo demanda en watsonx.ai
Nombre de modelo Tamaño de la configuración de despliegue
Ventana contextual
(tokens de entrada + salida)
granite-vision-3-3-2b 131.072
granite-3-3-8b-instruct Pequeña 131.072
granite-3-3-2b-instruct Pequeña 131.072
granite-3-2-8b-instruct Pequeña 131.072
granite-3-1-8b-base Pequeña 131.072
granite-8b-japanese Pequeña 4.096
granite-20b-multilingual Pequeña 8.192
granite-13b-chat-v2 Pequeña 8.192
granite-3b-code-instruct Pequeña 128.000
granite-8b-code-instruct Pequeña 128.000
granite-20b-code-instruct Pequeña 8.192
granite-34b-code-instruct Pequeña 8.192
granite-20b-code-base-schema-linking Pequeña 8.192
granite-20b-code-base-sql-gen Pequeña 8.192
granite-3-8b-base Pequeña 4.096

 

Implementación de modelos de base a petición de terceros

Nota:Existe una tarifa de acceso por hora cuando se despliegan determinados modelos de cimientos para uso exclusivo. El precio total para alojar estos modelos de despliegue de base bajo demanda es la suma del precio de acceso más el precio de alojamiento.

Precio por hora del alojamiento de la GPU en USD + Cuota de acceso por hora en USD = Precio total por hora en USD

Para obtener más información sobre los precios de la configuración de la GPU, consulte Costes de facturación por hora para modelos de implementación bajo demanda.

La siguiente tabla enumera los modelos de bases de terceros que puede implementar bajo demanda.

Tabla 5. Modelos de cimientos de terceros disponibles para desplegar bajo demanda en watsonx.ai
Nombre de modelo Proveedor Tarifa de acceso por hora en USD Tamaño de la configuración de despliegue
Ventana contextual
(tokens de entrada + salida)
allam-1-13b-instruct Centro Nacional de Inteligencia Artificial y Autoridad Saudita de Datos e Inteligencia Artificial Pequeña 4.096
codellama-34b-instruct-hf Code Llama Medio 16.384
deepseek-r1-distill-llama-8b DeepSeek IA Pequeña 131.072
deepseek-r1-distill-llama-70b DeepSeek IA Grande 131.072
eurollm-1-7b-instruct Proyecto completo Pequeña 4.096
eurollm-9b-instruct Proyecto completo Pequeña 4.096
gpt-oss-20b OpenAI 131.072
gpt-oss-120b OpenAI 131.072
llama-2-13b-chat Meta Pequeña 4.096
llama-2-70b-chat Meta Grande 4.096
llama-3-8b-instruct Meta Pequeña 8.192
llama-3-70b-instruct Meta Grande 8.192
llama-3-1-8b Meta Pequeña 131.072
llama-3-1-70b Meta Grande 131.072
llama-3-1-8b-instruct Meta Pequeña 131.072
llama-3-1-70b-instruct Meta Grande 131.072
llama-3-1-70b-gptq Meta 131.072
llama-3-1-405b-instrcut-fp8 Meta 131.072
llama-3-2-11b-vision-instruct Meta Pequeña 131.072
llama-3-2-90b-vision-instruct Meta 131.072
llama-3-3-70b-instruct Meta Medio 131.072
llama-3-3-70b-instruct-hf Meta Grande 131.072
llama-4-maverick-17b-128e-instruct-fp8 Meta 131.072
llama-4-maverick-17b-128e-instruct-int4 Meta 131.072
llama-4-scout-17b-16e-instruct-fp8-dynamic Meta 131.072
codestral-2501 Meta $34.30 65.536
ministral-3b-instruct-2512 Mistral AI 262.144
ministral-8b-instruct-2512 Mistral AI 262.144
ministral-8b-instruct-2410 Mistral AI $8.60 131.072
mistral-large-2512 Mistral AI 256 000
mistral-large-instruct-2407 Mistral AI $34.30 Grande 131.072
mistral-large-instruct-2411 Mistral AI $34.30 Grande 131.072
mistral-medium-2505 Mistral AI $34.30 131.072
mistral-medium-2508 Mistral AI $34.30 131.072
mistral-nemo-instruct-2407 Mistral AI Pequeña 131.072
mistral-small-3-1-24b-instruct-2503 Mistral AI 131.072
mistral-small-3-2-24b-instruct-2506 Mistral AI 131.072
mixtral-8x7b-base Mistral AI Medio 32.768
mixtral-8x7b-instruct-v01 Mistral AI Medio 32.768
mt0-xxl-13b BigScience Pequeña 4.096
pixtral-12b Mistral AI 128.000
poro-34b-chat LumiOpen Medio 2.048

 

Más información