cloud GPU IBM Cloud 기반 GPU
안전하고 신뢰할 수 있으며 확장가능한 엔터프라이즈 클라우드에서 NVIDIA GPU를 사용하여 AI 및 HPC 프로세스를 가속화할 수 있습니다.
GPU 구성
IBM GPU Cloud 서버
개요

신뢰할 수 있고 안전하며 비용 효율적인 IBM Cloud 인프라에서 생성형 AI, 기존 AI, HPC 및 시각화 사용 사례를 위한 NVIDIA GPU를 프로비저닝할 수 있습니다.
 

사용 사례
파운데이션 모델을 사용한 생성형 AI

고객 서비스, 디지털 노동 및 애플리케이션 현대화와 같은 다양한 사용 사례를 위해 생성형 AI 모델을 학습시키고 검증, 조정 및 배포합니다.

더 알아보기
기존 AI

AI 및 ML 알고리즘을 사용하여 특정 사용자 요구 사항과 비즈니스 요구 사항을 기반으로 예측하고 전망합니다.

더 알아보기
HPC 워크로드

GPU의 네트워킹 및 메모리 개선으로 금융, EDA 및 생명 과학 워크로드를 위한 컴퓨팅 집약적 애플리케이션의 속도를 높입니다.

더 알아보기
시각화 및 게임

GPU를 사용하여 엔지니어링 시뮬레이션, 제품 설계 워크스테이션, 게임, 3D 모델링, AR/VR을 지원합니다.

AI 워크플로우에 최적화된 인프라 훈련

하이엔드 GPU 인프라에서 장기적으로 실행되는 작업

10~500개 이상의 하이엔드 GPU(작업당)

권장 GPU: H100, L40S

미세 조정

다운스트림 작업을 위해 사용자 지정 데이터 세트로 모델 조정

1개 이상의 중급 및 하이엔드 GPU(작업당)

권장 GPU: L40S

추론

지연시간 및 처리량에 민감, 항상 비용에 민감

작업당 단일 GPU 또는 일부 GPU 사용

권장 GPU: L40S, L4

Virtual Server for VPC의 GPU 옵션

GPU

VCPU

RAM

대역폭

1 x NVIDIA L4 24GB 

16

80GB

32Gbps

2 x NVIDIA L4 24GB 

32

160GB

64Gbps

4 x NVIDIA L4 24GB

64

320GB

128Gbps 

1 x NVIDIA L40S 48GB

24

120GB 

48Gbps

2 x NVIDIA L40S 48GB 

48

240GB

96Gbps 

1 x NVIDIA Tesla V100 16GB 

8

64GB 

16Gbps

1 x NVIDIA Tesla V100 16GB 

16

128GB

32Gbps

2 x NVIDIA Tesla V100 16GB 

16

128GB

32Gbps

2 x NVIDIA Tesla V100 16GB

32

256GB

64Gbps

H100 GPU 출시 예정

견적 받기

Red Hat OpenShift의 GPU 옵션*

프로파일 이름 

GPU

VCPU

RAM

대역폭

gx3.16x80.l4

1 x NVIDIA L4 24GB 

16

80GB

32Gbps

gx3.32x160.2l4

2 x NVIDIA L4 24GB 

32

160GB

32Gbps

gx3.64x320.4l4

4 x NVIDIA L4 24GB

64

320GB

32Gbps

견적 받기

Virtual Server for Classic의 GPU 옵션*

GPU

VCPU

RAM

1 x P100

8

60GB

2 x P100

16

120GB

견적 받기

Bare Metal Server for Classic의 GPU 옵션*

GPU

CPU

코어

RAM

NVIDIA T4

Intel Xeon 8474

96

최대 2048GB

NVIDIA T4

Intel Xeon 8474

48

최대 2048GB

NVIDIA T4

Intel Xeon 8474

64

최대 2048GB

견적 받기
생성형 AI 배포를 위한 하이브리드 중심 설계 스택 AI 어시스턴트

고객 서비스, 디지털 노동 및 애플리케이션 현대화를 위해 즉시 사용 가능한 AI 어시스턴트로 생산성을 높입니다.

AI 플랫폼

하나의 플랫폼을 기반으로 비즈니스 전반에 걸쳐 AI를 구축, 확장 및 관리합니다.

데이터 플랫폼

글로벌 데이터 플랫폼으로 데이터 장벽을 허물고 AI를 가속화합니다.

하이브리드 클라우드 플랫폼

하이브리드 클라우드 플랫폼으로 어디서나 AI 모델을 배포합니다.

GPU 인프라

클라우드: IBM Cloud 기반 GPU, 온프레미스: IBM Storage Fusion.

사례 연구 IBM과 NASA

IBM과 NASA는 기후 변화에 대한 AI 모델 구축을 위해 협력합니다.

자세히 알아보기
CrushBank

IBM watsonx로 헬프 데스크 티켓 해결률이 하루 40% 증가했습니다.

 

자세히 알아보기
Blendow Group

Blendow Group은 IBM과 협력하여 법률 문서의 검색 및 분석에 필요한 시간을 70% 단축했습니다.

자세히 알아보기
리소스 IBM의 클라우드 네이티브 AI 슈퍼컴퓨터 강화 IBM이 고객의 파운데이션 모델 배포를 지원하는 방법 웨비나: 생성형 AI 및 성능 집약적 워크로드를 위한 하이브리드 클라우드
시작하기

VPC 및 Red Hat OpenShift on IBM Cloud용 GPU를 구성하여 이러한 통합 솔루션으로 새로운 차원의 비즈니스 성과를 달성하는 방법을 알아보세요.

 

 

GPU for VPC 구성 Red Hat OpenShift on IBM Cloud로 GPU 구성
다음 단계

IBM Cloud GPU를 통해 파운데이션 모델의 기능을 활용하는 방법에 대해 자세히 알아보려면 언제든 문의해 주세요.

각주

미국, 캐나다 및 EU 데이터 센터에는 20TB 대역폭이 포함되며, 다른 모든 데이터 센터에는 5TB 대역폭이 포함됩니다. 새로운 가격 및 혜택은 현재 또는 향후의 다른 할인과 중복 적용되지 않을 수 있습니다.