Inicio Computación y servidores LinuxONE Acelerador integrado para IA en IBM LinuxONE
Inferencia de IA de alto rendimiento colocada junto a sus datos
Leer el blog
Ilustración con plantas creciendo, IA haciendo analytics y escudo de seguridad

El acelerador de IA integrado es una característica del procesador IBM® Telum. Es una unidad de procesamiento en chip que es coherente con la memoria y está directamente conectada a la estructura como cualquier otro núcleo de uso general. Aumenta el rendimiento de la inferencia de IA al minimizar la latencia entre la IA y los datos a través de la colocación.

El chip IBM Telum, diseñado para sistemas IBM® Z y LinuxONE, cuenta con más del 40 %1 de crecimiento de rendimiento por socket en comparación con IBM® z15. Presenta un acelerador de IA en chip dedicado, lo que garantiza una capacidad de inferencia constante de baja latencia y alto rendimiento. Este acelerador simplifica la orquestación de software y la complejidad de las bibliotecas, mientras que el procesador de IA acelerado transforma la integración de la IA en las empresas, ofreciendo insights en tiempo real con un rendimiento inigualable en entornos de nube híbrida.

Desbloquee el crecimiento del negocio con la IA en IBM LinuxONE

En este seminario web se analizará cómo IBM LinuxONE puede ayudarle a desbloquear nuevos casos de uso para la IA en todas las industrias.

Características Telum es el chip de procesador central para los sistemas LinuxONE de próxima generación. Obtenga más información sobre la arquitectura del acelerador de IA de IBM Telum, la microarquitectura, la integración en la pila del sistema, el rendimiento y la potencia. Lea sobre el microprocesador de próxima generación para LinuxONE Mejore los insights en tiempo real

El acelerador mantiene la coherencia de la memoria y se conecta directamente a la estructura, de manera similar a otros núcleos de uso general, lo que le permite admitir inferencias de baja latencia y, al mismo tiempo, cumplir con la tasa de transacciones del sistema. Esta capacidad permite a las empresas incorporar insights en tiempo real con un rendimiento superior.

Superar los retos de la carga de trabajo de la IA

La integración de la IA en las cargas de trabajo empresariales a menudo encuentra obstáculos debido al bajo rendimiento cuando se ejecuta en la plataforma. Sin embargo, el acelerador de IA en el chip puede ofrecer un alto rendimiento, con una capacidad de inferencia superior a 200 TFLOPS en un sistema de 32 chips2.

Mejore el rendimiento de la IA

El chip de Telum incluye aceleramiento de IA en el chip, lo que aumenta la velocidad y la escala de inferencia. En el modelo de detección de fraude de un banco global, el acelerador de IA logra una velocidad 22 veces mayor en comparación con los núcleos de propósito general, con 116 000 inferencias por segundo y una latencia de solo 1.1 milisegundo. El aumento hasta 32 chips mantiene una baja latencia de 1.2 milisegundos mientras realiza más de 3.5 millones de inferencias por segundo3.

Casos de uso Detección de fraude

Enfrente el desafío del puntaje de transacciones en tiempo real superando las limitaciones de latencia y escalabilidad de la red asociadas con los motores de puntaje fuera de la plataforma. Esto puede dar como resultado un aumento significativo en la seguridad de las transacciones, con un mayor porcentaje de transacciones protegidas con éxito contra el fraude. 

Imágenes médicas

Emplee la visión artificial y los modelos de análisis de imágenes de aprendizaje profundo para procesar y validar rápidamente los registros médicos, lo que permite la verificación casi en tiempo real de las reclamaciones de seguros. Este enfoque optimiza la consolidación central, mejorando la velocidad y la eficiencia del procesamiento.

Aplicaciones ISV

IBM está trabajando con el ecosistema IBM LinuxONE para ayudar a los ISV a proporcionar soluciones para los desafíos actuales de IA, sustentabilidad y ciberseguridad.

Explore dos soluciones innovadoras diseñadas para instituciones financieras y de atención médica: Clari5 Enterprise Fraud Management on IBM LinuxONE 4 Express para la prevención de fraudes en tiempo real, y Enso Decision Intelligence Platform de Exponential AI on LinuxONE para soluciones avanzadas de IA a escala.

Clari5

La solución Clari5 Enterprise Fraud Management on IBM LinuxONE 4 Express dota a las instituciones financieras de un sólido motor de toma de decisiones para la prevención del fraude en tiempo real. Está diseñado para monitorear, detectar e influir en las transacciones, garantizando el cumplimiento y mejorando la productividad, todo mientras ofrece una velocidad y escalabilidad sin precedentes.

IA exponencial

Enso Decision Intelligence Platform on LinuxONE de Exponential AI proporciona capacidades de vanguardia para crear, entrenar, orquestar y gestionar soluciones de IA casi en tiempo real a escala. Esta plataforma aborda los desafíos que enfrentan los principales pagadores de seguros de salud nacionales en transacciones complejas, ofreciendo soluciones de automatización inteligente desarrolladas por Exponential AI.

Software que explota Telum
Potencie el desarrollo de modelos TensorFlow

TensorFlow es un marco de aprendizaje automático de código abierto que ofrece un conjunto completo de herramientas para el desarrollo, entrenamiento e inferencia de modelos. Cuenta con un ecosistema rico y robusto, y es compatible con entornos LinuxONE que se ejecutan en Linux.

Explore TensorFlow y TensorFlow Serving

Aprendizaje automático eficaz IBM SnapML

IBM® SnapML es una biblioteca diseñada para el entrenamiento de alta velocidad y la inferencia de modelos populares de aprendizaje automático. Aprovecha IBM Integrated Accelerator for AI para mejorar el rendimiento de los modelos Random Forest, Extra Trees y Gradient Boosting Machines. Disponible como parte del kit de herramientas de IA para IBM Z and LinuxONE e IBM CloudPak for Data.

Explore IBM Snap Machine Learning

Optimice la inferencia Triton Inference Server

Triton Inference Server es un servidor modelo de código abierto desarrollado por Nvidia que admite la inferencia de modelos en dispositivos CPU y GPU. Es ampliamente utilizado en diversas plataformas y arquitecturas, incluyendo s390x (Linux on Z). Específicamente en Linux on Z, Triton puede aprovechar los entornos de IA para usar tanto la arquitectura SIMD como el IBM Integrated Accelerator for AI, optimizando el rendimiento.

Explore Triton Inference Server
Capacitar a los científicos de datos Compilador de aprendizaje profundo IBM Z

IBM® Z Deep Learning Compiler es una potente herramienta que permite a los científicos de datos desarrollar modelos de aprendizaje profundo mediante herramientas y marcos familiares. Luego, estos modelos se pueden desplegar en Linux on IBM Z, donde residen los datos de misión crítica. Este compilador facilita la utilización rápida y fácil del Integrated Accelerator for AI del nuevo procesador Telum por parte de los modelos existentes.

Explore IBM Z Deep Learning Compiler
Formato de modelo portátil
Intercambio de redes neuronales abiertas

Open Neural Network Exchange (ONNX) es un formato abierto creado para representar modelos de aprendizaje automático. ONNX define un conjunto común de operadores—los componentes básicos de los modelos de aprendizaje automático y aprendizaje profundo— y un formato de archivo común para permitir que los desarrolladores de IA utilicen modelos con una variedad de marcos, herramientas, tiempos de ejecución y compiladores.

Explorar ONNX
Soluciones de integración

Descubra soluciones de integración de IA sin interrupciones adaptadas a los sistemas IBM Z y LinuxONE. 

Mayor rendimiento de IA

El AI Toolkit for IBM Z and LinuxONE comprende una gama de marcos de IA de código abierto populares, respaldados por IBM® Elite Support. Está optimizado para emplear IBM Z Integrated Accelerator for AI, lo que mejora significativamente el rendimiento de los programas de IA de código abierto y no garantizados de IBM.

Explorar AI Toolkit for IBM Z and LinuxONE
Optimice las cargas de trabajo de IA

El AI Bundle for IBM LinuxONE ofrece una infraestructura de hardware de IA dedicada con una pila de software central optimizada. Al aprovechar la potencia del procesador IBM Telum con Integrated Accelerator for AI, las empresas pueden realizar inferencias para cargas de trabajo de gran volumen a escala.

Explore AI Bundle para IBM LinuxONE
Optimizar la gestión de datos:

IBM® Cloud Pak for Data es un conjunto modular de componentes de software integrados diseñados para análisis, organización y gestión de datos. Mejora la productividad y reduce la complejidad al ayudar a crear un tejido de datos que conecta datos aislados distribuidos en un escenario de nube híbrida.

Explorar IBM Cloud Pak for Data Leer el Redbook
Dé el siguiente paso

Aprenda más sobre la IA en IBM LinuxONE programando una reunión gratis de 30 minutos con un representante de IBM LinuxONE.

Comience su camino hacia la IA en LinuxONE
Más formas de explorar Documentación Soporte IBM Redbooks Soporte y servicios Financiamiento global Comunidad Comunidad de desarrolladores Colaboradores Recursos
Notas de pie de página

1 El procesador IBM Telum en IBM®
z16 ofrece un crecimiento del rendimiento por socket de más del 40 % en comparación con el procesador IBM z15.

EXENCIÓN DE RESPONSABILIDAD: Los resultados se basan en análisis de ingeniería de la capacidad de procesamiento total ofrecida por el procesador IBM Telum y el procesador IBM z15, así como en las relaciones de referencia de rendimiento de grandes sistemas (LSPR) de IBM publicadas en  https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. El número de núcleos por socket de procesador accesible para uso general varía según la configuración del sistema. La capacidad total de procesamiento varía según la carga de trabajo, la configuración y los niveles de software.

2  La aceleración de IA en chip está diseñada para sumar hasta 5.8 TFLOPS de potencia de procesamiento compartida por todos los núcleos del chip.

EXENCIÓN DE RESPONSABILIDAD: El resultado es el número teórico máximo de operaciones de punto flotante por segundo (FLOPS) con una precisión de 16 bits que puede ejecutar un único motor de IA en chip. Hay un motor de IA en chip por chip.

3 EXENCIÓN DE RESPONSABILIDAD: Los resultados de rendimiento se extrapolan a partir de pruebas internas de IBM ejecutando operaciones de inferencia local en un LinuxONE Emperor 4 LPAR de IBM con 48 núcleos y 128 GB de memoria en Ubuntu 20.04 (modo SMT) por medio de un modelo de detección de fraudes de tarjetas de crédito sintético (https://github.com/IBM/ai-on-z-fraud-detection) aprovechando Acelerador integrado para IA. La prueba se ejecutó con 8 subprocesos paralelos, cada uno de ellos conectado al primer núcleo de un chip diferente. El comando lscpu se utilizó para identificar la topología core-chip. Se utilizó un tamaño de lote de 128 operaciones de inferencia. Los resultados varían.