Los modelos watsonx de IBM están diseñados para las empresas y optimizados para dominios empresariales y casos prácticos específicos. A través de AI Studio IBM watsonx.ai, ofrecemos una selección de modelos fundacionales rentables y de nivel empresarial desarrollados por IBM, modelos de código abierto y modelos obtenidos de proveedores de terceros para ayudar a clientes y socios a escalar y hacer operativa la inteligencia artificial (IA) más rápidamente y con un riesgo mínimo. Puede implementar modelos de IA esté donde esté su carga de trabajo, tanto en las instalaciones como en una nube híbrida.
IBM adopta un enfoque diferenciado para ofrecer modelos fundacionales de nivel empresarial:
La biblioteca de modelos fundacionales de IBM watsonx le ofrece la posibilidad y la flexibilidad de elegir el modelo que mejor se adapte a sus necesidades empresariales, intereses regionales y perfiles de riesgo a partir de una biblioteca de modelos patentados, de código abierto y de terceros.
IBM Granite es una serie insignia de grandes modelos fundacionales lingüísticos basados en una arquitectura de transformador de solo descodificador. Los modelos de lenguaje Granite se entrenan con datos empresariales fiables que abarcan datos de Internet, académicos, de código, legales y financieros.
Los modelos mejoran sistemáticamente el rendimiento en casos prácticos populares, como la generación de contenido, el resumen, la clasificación, la extracción de conocimiento y la generación aumentada de recuperación (RAG).
Pruebe watsonx.ai gratis
Vea cómo se entrenaron los modelos Granite y se utilizaron fuentes de datos
IBM Granite, entrenado en contenido relevante para la empresa, cumple con rigurosos criterios normativos, de riesgo y de gobierno de datos definidos y aplicados por el código de ética de IA de IBM y la Oficina principal de privacidad.
Precisión mejorada para dominios empresariales específicos, como finanzas, y casos prácticos como RAG, lograda mediante técnicas de ajuste de chat y alineación de modelos.
Un modelo a un precio competitivo con menos requisitos de infraestructura, indemnización por PI y un kit de herramientas fácil de usar para la personalización de modelos e integración de aplicaciones.
Seleccione el modelo fundacional generativo que mejor se adapte a sus necesidades. Una vez que tenga una lista corta de modelos para su caso práctico, pruébelos de forma sistemática utilizando técnicas de ingeniería rápida para ver cuáles devuelven los resultados deseados de manera coherente.
granite-13b-chat
IBM
Admite preguntas y respuestas, resumen, clasificación, generación, extracción y tareas RAG.
8192
0,0006
granite-13b-instruct
IBM
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
8192
0,0006
granite-20b-multilingual
IBM
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción, traducción y RAG en francés, alemán, portugués, español e inglés.
8190
0,0006
llama-2-70b-chat
Meta
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
4096
0,0018
llama-2-13b-chat
Meta
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG. Disponible para ajuste de consignas.
4096
0,0006
codellama-34b-instruct
Meta
Modelo de código a partir de la generación y traducción de código a partir de un mensaje en lenguaje natural.
4096
0,0018
mixtral-8x7b-instruct
Mistral AI
Admite preguntas y respuestas, resumen, clasificación, generación, extracción, RAG y tareas de generación de código.
32768
0,0006
granite-8b-japanese
IBM
Admite preguntas y respuestas, resumen, clasificación, generación, extracción, traducción y tareas RAG en japonés.
4096
0,0006
flan-t5-xl-3b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG. Disponible para ajuste de consignas.
4096
0,0006
flan-t5-xxl-11b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
4096
0,0018
flan-ul2-20b
Admite tareas de preguntas y respuestas, resumen, clasificación, generación, extracción y RAG.
4096
0,005
elyza-japanese-llama-2-7b-instruct
ELYZA
Admite tareas de preguntas y respuestas, resumen, RAG, clasificación, generación, extracción y traducción.
4096
0,0018
mt0-xxl-13b
BigScience
Tareas de preguntas y respuestas, resumen, clasificación y generación.
4096
0,0018
Las empresas están entusiasmadas con la perspectiva de aprovechar los modelos fundacionales y el ML en un solo lugar, con sus propios datos, para acelerar las cargas de trabajo de IA generativa.
IBM cree en la creación, implementación y utilización de modelos de IA que impulsen la innovación en toda la empresa responsable. La plataforma de datos e IA Watsonx de IBM cuenta con un proceso integral para crear y probar modelos fundacionales e IA generativa. Para los modelos desarrollados por IBM, buscamos y eliminamos duplicaciones, y empleamos listas de bloqueo de URL, filtros para contenido objetable y calidad de documentos, división de oraciones y técnicas de tokenización, todo ello antes de la fase de fase de entrenamiento del modelo.
Durante el proceso de entrenamiento con datos, trabajamos para evitar desalineaciones en los resultados del modelo y utilizamos ajustes supervisados para permitir un mejor seguimiento de las instrucciones, de modo que el modelo pueda usarse para completar tareas empresariales mediante ingeniería rápida. Seguimos desarrollando los modelos Granite en varias direcciones, incluidas otras modalidades, contenidos específicos del sector y anotaciones de datos para el entrenamiento, al tiempo que implementamos salvaguardas regulares y continuas de protección de datos para los modelos desarrollados por IBM.
Dada la rápida evolución del panorama tecnológico de la IA generativa, se espera que nuestros procesos integrales evolucionen y mejoren continuamente. Como testimonio del rigor que IBM pone en el desarrollo y prueba de sus modelos fundacionales, la compañía proporciona su indemnización contractual estándar de propiedad intelectual para los modelos desarrollados por IBM, similar a la que proporciona para el hardware y los productos de software de IBM.
Además, a diferencia de otros proveedores de grandes modelos de lenguaje y en consonancia con el enfoque estándar de IBM en materia de indemnización, IBM no exige a sus clientes que indemnicen a IBM por el uso que hacen de los modelos desarrollados por IBM. Durante el proceso de entrenamiento con datos, trabajamos para evitar desalineaciones en los resultados del modelo y utilizamos ajustes supervisados para permitir un mejor seguimiento de las instrucciones, de modo que el modelo pueda usarse para completar tareas empresariales mediante ingeniería rápida.
Entre los modelos watsonx que actualmente gozan de estas protecciones figuran:
(1) Familia Slate de modelos solo con codificador.
(2) Familia Granite de modelo solo con decodificador.
Los precios de inferencia son por 1000 tokens (1 unidad de recursos). Los tokens de entrada y finalización se cobran al mismo precio. 1.000 tokens equivalen generalmente a unas 750 palabras.
No todos los modelos están disponibles en todas las regiones; consulte nuestra documentación para obtener más detalles.
Longitud del contexto expresada en tokens.
Las declaraciones relativas a los planes, dirección e intenciones de IBM están sujetas a cambio o retirada sin previo aviso a discreción exclusiva de IBM. Ver Tarificación para obtener más detalles. A menos que se especifique lo contrario en Tarificación de Software, todas las características, capacidades y actualizaciones potenciales se refieren exclusivamente a SaaS. IBM no garantiza que las características y capacidades de SaaS y del software sean las mismas.