Seleccione el modelo IBM Granite, de código abierto o de terceros, que mejor se adapte a su negocio e impleméntelo en las instalaciones o en la nube.
Elija el modelo que mejor se adapte a su caso de uso específico, a las consideraciones presupuestarias, a los intereses regionales y al perfil de riesgo.
Adaptada a las empresas, la familia IBM Granite de modelos abiertos, eficaces y de confianza ofrece un rendimiento excepcional a un precio competitivo, sin comprometer la seguridad.
Los modelos Llama son modelos de lenguaje grandes, abiertos y eficientes, diseñados para ofrecer versatilidad y un rendimiento sólido en una amplia gama de tareas de lenguaje natural.
Los modelos Mistral son modelos lingüísticos rápidos, eficaces y de peso abierto diseñados para la modularidad y optimizados para la generación de texto, el razonamiento y las aplicaciones multilingües.
Hay varios modelos fundacionales de otros proveedores disponibles en watsonx.ai.
¿Qué sucede cuando entrena un potente modelo de IA con sus propios datos únicos? Mejores experiencias para los clientes y un valor más rápido con la IA. Explore estas historias y descubra cómo.
Wimbledon utilizó modelos fundacionales de watsonx.ai para entrenar su IA y crear crónicas sobre el tenis.
La Recording Academy utilizó AI Stories con IBM watsonx para generar y escalar contenido editorial en torno a los nominados a los GRAMMY.
El Masters utiliza watsonx.ai para llevar a las plataformas digitales conocimientos sobre los hoyos con IA combinados con opiniones de expertos.
AddAI.Life utiliza watsonx.ai para acceder a modelos de lenguaje de gran tamaño de código abierto seleccionados para construir asistentes virtuales de mayor calidad.
gpt-oss-120b
OpenAI
Implementación privada en las instalaciones o en el edge, flujos de trabajo de razonamiento, uso de herramientas (por ejemplo, búsqueda y ejecución de código), cadena de pensamiento personalizable, resultados estructurados y esfuerzo de razonamiento ajustable
128 000
0,15 tokens de entrada (input)
0,60 tokens de salida (output)
granite-3-3-8b-instruct
IBM
Admite razonamiento y planificación, preguntas y respuestas (Q&A), soporte de relleno en el medio, resumen, clasificación, generación, extracción, RAG y tareas de codificación.
128k
0,20
granite-3-2-8b-instruct
IBM
Admite tareas de razonamiento y planificación, preguntas y respuestas, resumen, clasificación, generación, extracción, GAR y codificación.
128k
0,20
granite-vision-3-2-2b
IBM
Admite casos de uso de imagen a texto para análisis de gráficos, gráficos e infografías, y preguntas y respuestas contextuales.
16 384
0,10
granite-3-2b-instruct (v3.1)
IBM
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción, RAG y codificación.
128k
0,10
granite-3-8b-instruct (v3.1)
IBM
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción, RAG y codificación.
128k
0,20
granite-guardian-3-8b (v3.1)
IBM
Admite la detección de HAP o PII, jailbreak, sesgo, violencia y otros contenidos dañinos.
128k
0,20
granite-guardian-3-2b (v3.1)
IBM
Admite la detección de HAP o PII, jailbreak, sesgo, violencia y otros contenidos dañinos.
128k
0,10
granite-13b-instruct
IBM
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
8192
0,60
granite-8b-code-instruct
IBM
Modelo de código específico para cada tarea mediante la generación, explicación y traducción de código a partir de una instrucción en lenguaje natural.
128k
0,60
granite-8b-japanese
IBM
Admite preguntas y respuestas, resumen, clasificación, generación, extracción, traducción y tareas RAG en japonés.
4096
0,60
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
llama-4-scout-17b-16e-instruct
Meta
Razonamiento multimodal, procesamiento de contextos largos (10 millones de tokens), generación y análisis de código, operaciones multilingües (compatible con 200 idiomas), STEM y razonamiento lógico.
128k
Vista previa gratuita
llama-4-maverick-17b-128e-instruct-fp8
Meta
Razonamiento multimodal, procesamiento de contextos largos (10 millones de tokens), generación y análisis de código, operaciones multilingües (compatible con 200 idiomas), STEM y razonamiento lógico.
128k
Entrada: 0,35/Salida: 1,40
llama-3-3-70b-instruct
Meta
Admite tareas de preguntas y respuestas, resumen, generación, codificación, clasificación, extracción, traducción y RAG en inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
128k
0,71
llama-3-2-90b-vision-instruct
Meta
Admite subtítulos de imágenes, transcripción de imagen a texto (OCR) incluida la escritura a mano, extracción y procesamiento de datos, preguntas y respuestas contextuales e identificación de objetos.
128k
2,00
llama-3-2-11b-vision-instruct
Meta
Admite subtítulos de imágenes, transcripción de imagen a texto (OCR) incluida la escritura a mano, extracción y procesamiento de datos, preguntas y respuestas contextuales e identificación de objetos.
128k
0,35
llama-guard-3-11b-vision
Meta
Admite filtrado de imágenes, detección de HAP o PII y filtrado de contenido dañino.
128k
0,35
llama-3-2-1b-instruct
Meta
Admite tareas de preguntas y respuestas, resumen, generación, codificación, clasificación, extracción, traducción y RAG en inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
128k
0,10
llama-3-2-3b-instruct
Meta
Admite tareas de preguntas y respuestas, resumen, generación, codificación, clasificación, extracción, traducción y RAG en inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
128k
0,15
llama-3-405b-instruct
Meta
Admite tareas de preguntas y respuestas, resumen, generación, codificación, clasificación, extracción, traducción y RAG en inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. |
128k
Entrada: 5,00 / Salida: 16,00
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
mistral-medium-2505
Mistral AI
Admite codificación, subtítulos de imágenes, transcripción de imagen a texto, llamada a funciones, extracción y procesamiento de datos, preguntas y respuestas contextuales, razonamiento matemático
128k
Entrada: 3,00 / Salida: 10,00
mistral-small-3-1-24b-instruct-2503
Mistral AI
Admite subtítulos de imágenes, transcripción de imagen a texto, llamada a funciones, extracción y procesamiento de datos, preguntas y respuestas contextuales e identificación de objetos
128k
Entrada: 0,10/Salida: 0,30
pixtral-12b
Mistral AI
Admite subtítulos de imágenes, transcripción de imagen a texto (OCR) incluida la escritura a mano, extracción y procesamiento de datos, preguntas y respuestas contextuales e identificación de objetos.
128k
0,35
mistral-large-2
Mistral AI
Admite tareas de Q&A, resumen, generación, codificación, clasificación, extracción, traducción y RAG en francés, alemán, italiano, español e inglés.
128k*
Entrada: 3,00 / Salida: 10,00
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
allam-1-13b-instruct
SDAIA
Admite preguntas y respuestas, resumen, clasificación, generación, extracción, RAG y traducción en árabe.
4096
1,80
jais-13b-chat (árabe)
core42
Admite preguntas y respuestas, resumen, clasificación, generación, extracción y traducción en árabe.
2048
1,80
flan-t5-xl-3b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG. Disponible para ajuste de consignas.
4096
0,60
flan-t5-xxl-11b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
4096
1,80
flan-ul2-20b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
4096
5,00
elyza-japanese-llama-2-7b-instruct
ELYZA
Admite tareas de preguntas y respuestas, resumen, RAG, clasificación, generación, extracción y traducción.
4096
1,80
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
Utilice modelos embedding de código abierto y desarrollados por IBM, implementados en IBM watsonx.ai, para tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos. O elija un proveedor de modelos embedding de terceros.
granite-embedding-107m-multilingual
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
granite-embedding-278m-multilingual
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
slate-125m-english-rtrvr-v2
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
slate-125m-english-rtrvr
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
slate-30m-english-rtrvr-v2
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
slate-30m-english-rtrvr
IBM
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
all-mini-l6-v2
Microsoft
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
256
0,10
all-minilm-l12-v2
OS-NLP-CV
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
256
0,10
multilingual-e5-large
Intel
Tareas de generación aumentada por recuperación, búsqueda semántica y comparación de documentos.
512
0,10
*Los precios indicados son orientativos, pueden variar según el país, no incluyen impuestos ni aranceles aplicables y están sujetos a la disponibilidad de la oferta de productos
* La longitud del contexto es compatible con el proveedor del modelo, pero la longitud real del contexto en la plataforma es limitada. Para más información, consulte Documentación.
La inferencia se factura en unidades de recursos. 1 unidad de recursos equivale a 1000 tokens. Los tokens de entrada y finalización se cobran al mismo precio. 1000 tokens equivalen generalmente a unas 750 palabras.
No todos los modelos están disponibles en todas las regiones. Consulte nuestra documentación para obtener más información.
Longitud del contexto expresada en tokens.
Las declaraciones relativas a los planes, dirección e intenciones de IBM están sujetas a cambio o retirada sin previo aviso a discreción exclusiva de IBM. Ver Precios para obtener más detalles. A menos que se especifique lo contrario en precios de Software, todas las características, capacidades y actualizaciones potenciales se refieren exclusivamente a SaaS. IBM no garantiza que las características y capacidades de SaaS y del software sean las mismas.