통합 AI 가속기는 IBM Telum 프로세서의 기능으로 제공됩니다. 다른 범용 코어와 마찬가지로 패브릭에 직접 연결되고 메모리 일관성이 있는 온칩 처리 장치입니다. 코로케이션을 통해 AI와 데이터 간의 지연시간을 최소화하여 AI 추론 성능을 향상합니다.
이 웨비나에서는 IBM LinuxONE이 산업 전반에서 AI의 새로운 활용 사례를 발굴하는 데 어떻게 도움이 되는지 설명합니다.
IBM은 IBM LinuxONE 에코시스템과 협력하여 ISV가 오늘날의 AI, 지속가능성 및 사이버 보안 문제에 대한 솔루션을 제공할 수 있도록 지원합니다.
금융 및 의료 기관을 위해 맞춤화된 두 가지 혁신적인 솔루션을 살펴보세요. 실시간 사기 방지를 위한 IBM LinuxONE 4 Express의 Clari5 Enterprise Fraud Management와 대규모 고급 AI 솔루션을 위한 Exponential AI의 Enso Decision Intelligence Platform on LinuxONE을 소개합니다.
Clari5 Enterprise Fraud Management Solution on IBM LinuxONE 4 Express는 실시간 사기 방지를 위한 강력한 의사 결정 엔진을 금융 기관에 제공합니다. 전례 없는 속도와 확장성을 제공하는 동시에 트랜잭션을 모니터링, 감지 및 영향을 미치도록 설계되어 규정 준수를 보장하고 생산성을 개선합니다.
Exponential AI의 Enso Decision Intelligence Platform on LinuxONE은 실시간에 가까운 AI 솔루션을 대규모로 구축, 학습, 조정 및 관리할 수 있는 최첨단 기능을 제공합니다. 이 플랫폼은 Exponential AI가 개발한 지능형 자동화 솔루션을 제공하여 국내 주요 건강 보험 지급자가 복잡한 거래에서 겪는 문제를 해결합니다.
TensorFlow는 모델 개발, 학습 및 추론을 위한 포괄적인 도구 세트를 제공하는 오픈 소스 머신 러닝 프레임워크입니다. 풍부하고 강력한 에코시스템을 자랑하며 Linux에서 실행되는 LinuxONE 환경과 호환됩니다.
IBM SnapML은 널리 사용되는 머신 러닝 모델의 고속 학습 및 추론을 위해 설계된 라이브러리입니다. IBM Integrated Accelerator for AI를 활용하여 Random Forest, Extra Tree 및 Gradient Boosting Machine 모델의 성능을 향상시킵니다. IBM Z 및 LinuxONE 및 IBM CloudPak for Data용 AI 툴킷의 일부로 사용할 수 있습니다.
Triton Inference Server는 Nvidia에서 개발한 오픈 소스 모델 서버로, CPU 및 GPU 장치 모두에서 모델 추론을 지원합니다. s390x(Linux on Z)를 포함하여 다양한 플랫폼과 아키텍처에서 널리 사용되고 있습니다. 특히 Triton은 Linux on Z에서 AI 프레임워크를 활용하여 SIMD 아키텍처와 IBM Integrated Accelerator for AI를 모두 사용하여 성능을 최적화할 수 있습니다.
IBM Z Deep Learning Compiler는 데이터 과학자가 익숙한 도구와 프레임워크를 사용해 딥 러닝 모델을 개발할 수 있는 강력한 도구입니다. 미션 크리티컬 데이터가 있는 Linux on IBM Z에 이러한 모델을 배포할 수 있습니다. 이 컴파일러는 새로운 Telum 프로세서의 Integrated Accelerator for AI를 기존 모델에서 빠르고 쉽게 활용할 수 있도록 지원합니다.
1IBM z16의 IBM Telum 프로세서는 IBM z15 프로세서에 비해 소켓당 성능을 40% 이상 향상합니다.
면책 조항: 결과는 IBM Telum 프로세서와 IBM z15 프로세서가 제공하는 총 처리 용량에 대한 엔지니어링 분석과 IBM LSPR(Large System Performance Reference) 비율(https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference에 게시)을 기반으로 합니다. 일반적인 용도로 액세스할 수 있는 프로세서 소켓당 코어 수는 시스템 구성에 따라 다를 수 있습니다. 총 처리 용량은 워크로드, 구성 및 소프트웨어 수준에 따라 달라질 수 있습니다.
2 온칩 AI 가속은 칩의 모든 코어가 공유하는 최대 5.8TFLOPS의 처리 능력을 추가하도록 설계되었습니다.
면책 조항: 결과는 단일 온칩 AI 엔진이 실행할 수 있는 16비트 정밀도의 이론상 최대 초당 부동 소수점 연산(FLOPS) 수입니다. 칩당 하나의 온칩 AI 엔진이 있습니다.
3면책 조항: 성능 결과는 Integrated Accelerator for AI를 사용하는 합성 신용카드 사기 탐지 모델을 사용하여 Ubuntu 20.04(SMT 모드)에서 48코어 및 128GB 메모리를 탑재한 IBM LinuxONE Emperor 4 LPAR에서 Integrated Accelerator for AI를 사용하여 로컬 추론 작업을 실행한 IBM 내부 테스트에서 추정한 것입니다(https://github.com/IBM/ai-on-z-fraud-detection ) 벤치마크는 다른 칩의 첫 번째 코어에 각각 8개의 병렬 스레드를 연결하여 실행되었습니다. 코어 칩 토폴로지를 식별하는 데 lscpu 명령이 사용되었습니다. 추론 작업의 배치 크기는 128개였습니다. 결과는 경우에 따라 다를 수 있습니다.