고가용성 구성의 GPFS 파일 시스템

IBM® General Parallel File System(GPFS™) 소프트웨어는 시스템 전체적으로 파일 시스템을 공유하는 데 사용됩니다. 고가용성(HA) 구성은 이중 GPFS 네트워크 공유 디스크(NSD) 서버를 포함하고 HA 자원 및 GPFS 파일 시스템 간의 종속성을 강제 실행합니다.

다중 GPFS 클러스터가 시스템에 정의되어 있습니다.

관리 GPFS 클러스터
GPFS 클러스터를 MANAGEMENT.GPFS라고 하며 관리 호스트 및 대기 관리 호스트를 포함합니다. 이는 웨어하우스 도구데이터베이스 성능 모니터에 필요한 파일 시스템을 포함하며, 기본 GPFS 클러스터가 서비스하는 클러스터 범위 파일 시스템(/db2home, /dwhome/stage)을 교차 마운트합니다.
기본 GPFS 클러스터
GPFS 클러스터를 FOUNDATION.GPFS라고 하며 여기에는 첫 번째 이동 고가용성(HA) 그룹의 어드민 호스트 및 두 번째 이동 HA 그룹의 데이터 호스트가 포함됩니다. 기본 GPFS 클러스터는 해당 환경 내의 다른 모든 GPFS 클러스터에 교차 클러스터 파일 시스템을 제공합니다.
추가 GPFS 클러스터
각 추가 GPFS 클러스터는 각 후속 이동 HA 그룹의 호스트를 포함하며 hagroup#.GPFS라고 합니다. 여기서 #는 클러스터 내의 각 추가 HA 그룹에 대해 3에서 시작하여 1씩 증가합니다.

GPFS 파일 시스템의 가용성을 높이기 위해 각각의 고가용성(HA) 그룹에서 두 개의 호스트가 GPFS NSD 서버로 지정되어 동시에 실행됩니다. GPFS NSD 서버로 작동하는 두 호스트는 외부 스토리지에 연결되고 HA 그룹에 있는 다른 호스트에 대한 내부 애플리케이션 네트워크를 통해 GPFS 파일 시스템을 공유합니다. GPFS 서버로 지정된 호스트가 실패하는 경우, 다른 GPFS 서버가 가동 상태를 유지하고 클라이언트 호스트에 대한 파일 시스템을 계속 공유합니다. 클라이언트 호스트는 HA 그룹에 남아 있는 호스트입니다.

다음 파일 시스템은 GPFS에 의해 관리되고 시스템의 모든 호스트에 대해 공유됩니다.
  • /db2home: 인스턴스 홈 파일 시스템
  • /dwhome: 사용자 홈 파일 시스템
  • /stage: 스크래치 공간
다음 파일 시스템은 GPFS에서 관리하고 동일한 이동 HA 그룹의 모든 호스트에 대해 공유됩니다.
  • /db2fs/bcuaix/NODEnnnn: 영구적인 테이블스페이스의 컨테이너이며, 여기서 nnnn은 데이터베이스 파티션 번호를 나타냅니다.
  • /bkpfs/bcuaix/NODEnnnn: 데이터베이스 파티션 nnnn의 백업 파일 시스템
  • /db2path/bcuaix/NODEnnnn: 데이터베이스 파티션 nnnn의 데이터베이스 디렉토리 파일 시스템
다음 파일 시스템은 GPFS에 의해 관리되고 관리 호스트와 대기 관리 호스트 사이에 공유됩니다.
  • /opmfs: 데이터베이스 성능 모니터에서 사용되는 파일 시스템
  • /usr/IBM/dwe/appserver_001: 웨어하우스 도구 애플리케이션에서 사용되는 파일 시스템
관리 호스트와 대기 관리 호스트는 관리 호스트의 고가용성 구성을 위해 GPFS NSD 서버로 지정됩니다.

GPFS 클러스터는 기본 GPFS 클러스터를 제외하면 HA 그룹에 맵핑됩니다. 기본 GPFS 클러스터는 두 개의 개별 HA 그룹처럼 동작합니다. 첫 번째 HA 그룹에는 관리 호스트와 대기 관리 호스트가 들어 있습니다. 두 번째 HA 그룹에는 기본 GPFS 클러스터의 모든 데이터 호스트가 포함되어 있습니다. 일반적으로 동일한 HA 그룹에 포함된 모든 호스트가 해당 HA 그룹과 연관된 모든 데이터베이스 파티션 파일 시스템을 마운트할 수 있습니다. 제외 파일은 첫 번째 HA 그룹의 데이터베이스 파티션에서 사용되는 파일 시스템은 어드민 호스트에만 마운트되고, 두 번째 HA 그룹의 데이터베이스 파티션에서 사용되는 파일 시스템은 두 번째 HA 그룹의 데이터 호스트에만 마운트되도록 구성됩니다.

예를 들어, 처음 3개의 활성 데이터 호스트(host003, host004, host005)와 하나의 대기 데이터 호스트(host006)가 동일한 이동 HA 그룹에 포함된다고 가정합니다. 각 활성 데이터 호스트는 10개의 데이터베이스 파티션을 실행하므로, HA 그룹의 여러 호스트에 마운트된 파일 시스템은 6 - 35의 데이터베이스 파티션에서 사용하기 위한 것입니다. host003, host004, host005host006 호스트만 6 - 35 데이터베이스 파티션의 다음 파일 시스템을 마운트하도록 기본 GPFS 클러스터의 제외 파일이 구성됩니다. 여기서 nnnn은 데이터베이스 파티션 번호를 나타냅니다.
  • /db2fs/bcuaix/NODEnnnn
  • /db2path/bcuaix/NODEnnnn
  • /bkpfs/bcuaix/NODEnnnn
그림 1은 시스템의 모든 호스트 마운트된 파일 시스템, 관리 호스트에 마운트된 파일 시스템 및 코어 웨어하우스 이동 HA 그룹의 모든 호스트에 마운트된 파일 시스템을 표시합니다. 각 HA 쌍 또는 이동 HA 그룹에서 두 호스트는 NSD 서버로 정의되어야 하며 두 호스트는 쿼럼 관리자로 정의되어야 합니다.
그림 1. GPFS 파일 시스템GPFS 파일 시스템

코어 웨어하우스 인스턴스의 HA 구성에는 GPFS에서 관리하는 /db2home 인스턴스 홈 파일 시스템과 데이터베이스 파티션 자원 간의 종속성이 포함됩니다. 이런 종속성으로 인해 /db2home 파일 시스템이 마운트되지 않은 경우 IBM Tivoli® System Automation for Multiplatforms(Tivoli SA MP)가 데이터베이스 파티션을 시작하지 못합니다. 또한 활성 호스트의 인스턴스 홈 파일 시스템에서 장애가 발생하는 경우 해당 종속 항목이 장애 복구를 트리거합니다.

GPFS 파일 시스템 마운트는 Tivoli SA MP 소프트웨어에서도 관리됩니다. 정상 운영 중 GPFS 소프트웨어는 적절한 호스트에서 마운트된 GPFS 파일 시스템을 유지합니다. 예를 들어, 호스트가 재부팅되는 경우 GPFS 소프트웨어는 자동으로 관리 파일 시스템 자원을 마운트합니다. 그러나 GPFS 파일 시스템이 GPFS 소프트웨어에 의해 자동으로 마운트되지 않거나 GPFS 파일 시스템이 마운트 해제된 경우, Tivoli SA MP 소프트웨어는 파일 시스템이 마운트되지 않았음을 발견하고 코어 웨어하우스 데이터베이스를 시작하기 전에 자동으로 GPFS 파일 시스템을 마운트합니다.

시스템의 모든 호스트에서 GPFS 소프트웨어의 상태를 판별하려면 관리 호스트에서 루트로 다음 명령을 실행하십시오.
dsh -n ${ALL} "/usr/lpp/mmfs/bin/mmgetstate -Y | tail -1" | sort
이 명령은 각 호스트의 active 상태를 리턴해야 하며, 다음 샘플 출력과 유사합니다.
host01: mmgetstate::0:1:::host01:1:active:1:2:2:quorum node:(undefined):
host02: mmgetstate::0:1:::host02:1:active:1:4:5:quorum node:(undefined):
host03: mmgetstate::0:1:::host03:2:active:1:2:2:quorum node:(undefined):
host04: mmgetstate::0:1:::host04:2:active:1:4:5:quorum node:(undefined):
host05: mmgetstate::0:1:::host05:3:active:1:4:5:quorum node:(undefined):
host06: mmgetstate::0:1:::host06:4:active:1:4:5:quorum node:(undefined):
host07: mmgetstate::0:1:::host07:5:active:1:4:5::(undefined):