AWS VM のアクション

Turbonomic は、以下のアクションをサポートします。

  • スケール

    パフォーマンスとコストを最適化するために、別のインスタンス・タイプまたは層を使用するように VM インスタンスを変更します。

    以下のスケール・アクションに関する追加情報を参照してください。

  • 割引関連のアクション

    オンデマンド VM の割合が高い場合は、RI の対象範囲を増やすことで月額コストを削減できます。 範囲を拡大するには、既存の容量を持つインスタンス・タイプに VM をスケーリングします。

    追加のキャパシティーが必要な場合、 Turbonomic は追加の RI を購入するためのアクションを推奨します。

    購入アクションは、関連する VM スケーリング・アクションと一緒に実行する必要があります。 現在のサイズで VM の割引を購入するには、 「VM 予約プランの購入 (Buy VM Reservation Plan)」を実行します。

  • 「停止」 および 「開始」 (「停止」アクションとも呼ばれます)

    クラウドの費用を削減するために一定期間 VM を停止してから、後で始動します。

    詳しくは、 Parking: Stop or Start Cloud Resourcesを参照してください。

AWS VM のスケール・アクションの制御

スケール・アクションの場合、 Turbonomic が推奨するスケール・アクションを制御するポリシーを作成できます。 これらのポリシーでは、以下のオプションから選択します。

  • Cloud Scale All-すべてのスケーリング・アクションを実行します

  • Cloud Scale for Performance-パフォーマンスを向上させるスケーリング・アクションのみを実行します。

  • 節約のためのクラウド・スケール-コストを削減するスケーリング・アクションのみを実行します。

これらのアクションのデフォルトのアクション受け入れモードは 「手動」です。 保留中のアクションを調べると、ポリシーを満たすアクションのみが実行を許可されます。 その他のアクションはすべて読み取り専用です。

ポリシーの競合が発生すると、ほとんどの場合、 Cloud Scale All が他の 2 つのスケーリング・オプションをオーバーライドします。 詳しくは、 デフォルトおよびユーザー定義の自動化ポリシーを参照してください。

AWS VM でサポートされるインスタンス・タイプ

Turbonomic は、クラウド VM のスケーリングを決定する際に、サポートされるすべてのインスタンス・タイプを考慮します。 特定のインスタンス・タイプのみを スケーリング する場合、または特定のインスタンス・タイプを 回避 する場合は、それらの VM のポリシーを作成します。

Turbonomic がサポートするインスタンス・タイプをユーザー・インターフェースから表示できます。
  1. 「設定」>「ポリシー」にナビゲートします。

  2. 「ポリシー管理」ページで、 「仮想マシンのデフォルト」を検索してクリックします。

  3. 「仮想マシン・ポリシーの構成」ページで、以下のようにします。

    1. ページの下部までスクロールダウンします。

    2. 「スケーリング制約の追加」をクリックします。

    3. 「クラウド・インスタンス・タイプ」を選択します。

    4. 編集」 をクリックします。

ポリシー・ページには、各クラウド・プロバイダーのサポートされる層が表示されます。 層は、インスタンス・タイプのファミリーです。例えば、 Google Cloudの場合は M1 、 AWS の場合は a1 、 Azureの場合は Basic_A1 などです。 層を展開すると、個々のインスタンス・タイプとリソース割り振りが表示されます。

AWS EC2 GPU インスタンス・タイプのサポート

現在、 Turbonomic は、 Linux AMI で以下の AWS EC2 GPU インスタンス・タイプをサポートしています。

  • G3 インスタンス・ファミリー (NVIDIA Tesla M60 GPU に基づく)

  • G4dn インスタンス・ファミリー (NVIDIA T4 GPU に基づく)

  • G5 インスタンス・ファミリー (NVIDIA A10G Tensor Core GPU に基づく)

  • G5g インスタンス・ファミリー (NVIDIA T4G Tensor Core GPU に基づく)

  • P2 インスタンス・ファミリー (NVIDIA Kepler K80 GPU に基づく)

  • P3/P3dn インスタンス・ファミリー (NVIDIA Volta V100 GPU に基づく)

  • P4d インスタンス・ファミリー (NVIDIA A100 Tensor Core GPU に基づく)

Turbonomic は、これらのインスタンス・タイプを実行する VM の NVIDIA GPU メトリックを収集し、それらのメトリックを使用して、パフォーマンスとコストを最適化する VM スケール・アクションを生成します。

メトリック

説明

アクション

GPU カウント

使用中の GPU カードの数

同じインスタンス・タイプ内の GPU カードの数をスケールダウンする

GPU メモリー

使用中の GPU メモリーの量

同じインスタンス・タイプ内での GPU メモリーのスケールアップまたはスケールダウン

GPU メモリー BW (帯域幅)

デバイス・メモリーとの間でデータが送受信されたサイクルの割合 (GB/ 秒で測定)

GPU メモリー BW のスケールアップまたはスケールダウン

このアクションは、VM を現在のインスタンス・タイプから、同じ (またはそれ以上の) GPU カウントおよび GPU メモリー容量を持つ別のインスタンス・タイプに移動します。

GPU FP16

FP16 (半精度) パイプがアクティブであったサイクルの割合

GPU FP16 のスケールアップまたはスケールダウン

このアクションは、VM を現在のインスタンス・タイプから、同じ (またはそれ以上の) GPU カウントおよび GPU メモリー容量を持つ別のインスタンス・タイプに移動します。

GPU FP32

FP32 (単精度) パイプがアクティブであったサイクルの割合

GPU FP32 のスケールアップまたはスケールダウン

このアクションは、VM を現在のインスタンス・タイプから、同じ (またはそれ以上の) GPU カウントおよび GPU メモリー容量を持つ別のインスタンス・タイプに移動します。

GPU FP64

FP64 (倍精度) パイプがアクティブであったサイクルの割合

GPU FP64 のスケールアップまたはスケールダウン

このアクションは、VM を現在のインスタンス・タイプから、同じ (またはそれ以上の) GPU カウントおよび GPU メモリー容量を持つ別のインスタンス・タイプに移動します。

GPU テンソル

Tensor (混合/多精度) パイプがアクティブであったサイクルの割合

GPU テンソルのスケールアップまたはスケールダウン

このアクションは、VM を現在のインスタンス・タイプから、同じ (またはそれ以上の) GPU カウントおよび GPU メモリー容量を持つ別のインスタンス・タイプに移動します。

メトリック・ディスカバリーを有効にするには、この トピックの説明に従って、 AWS CloudWatch および NVIDIA Data Center GPU Manager (DCGM) を構成します。

Turbonomic は、 標準 VM リソース ( vCPU や vMemなど) を、サポートされる GPU インスタンス・タイプおよび G4ad インスタンス・ファミリー (AMD Radeon Pro V520 GPU に基づく) にスケーリングするアクションも推奨できます。

Turbonomic は、スケール・アクションを生成または実行する際に、以下のポリシーおよび設定を制約と見なします。

  • 読み取り専用の層除外ポリシー

    Turbonomic は、これらのポリシーを自動的に作成し、「ポリシー管理」ページ (「設定」>「ポリシー」) に表示します。

    • クロス・ターゲット・ポリシー

      クロス・ターゲット・ポリシーにより、特定の GPU タイプを持つ AWS VM は、カードごとに同じ (またはそれ以上の) GPU カード数およびメモリーを持つインスタンス・タイプにのみスケーリングされるようになります。 ポリシーの例としては、 AWS GPU Nvidia - Cloud Compute Tier Exclusion Policyがあります。

    • ターゲットごとのポリシー

      ターゲットごとのポリシーにより、GPU でサポートされるインスタンス・ファミリー内のすべての VM が、GPU をサポートしないインスタンス・ファミリーにスケールアウトされないようにすることができます。 ポリシーの例としては、 Cloud Compute Tier AWS:gpu - Cloud Compute Tier Exclusion Policyがあります。

  • スケーリング・ターゲット使用率

    Turbonomic は、GPU リソースのスケーリング・ターゲット使用率の値を積極性の制約とともに使用して、VM のスケール・アクションを制御します。 AWS VM の自動化ポリシーで使用率の値を構成できます。 詳しくは、この トピックを参照してください。

  • NVIDIA GPU 計算能力の制約を無視

    この制約は、 AWS VM の自動化ポリシーをオンにするために選択できる設定です。 オンにすると、VM の GPU 計算能力 を変更するスケール・アクションを Turbonomicで実行できるようになります。 オフにすると、アクションは AWSでのみ実行可能になります。 詳しくは、この トピックを参照してください。

AWS EC2 アクセラレーター・インスタンス・タイプのサポート

Turbonomic は、標準 VM リソース ( vCPU や vMemなど) を以下の AWS EC2 アクセラレーター・インスタンス・タイプにスケーリングするアクションを推奨できます。

  • Inf1 インスタンス・ファミリー ( AWS Inferentia チップに基づく)

  • Inf2 インスタンス・ファミリー ( AWS Inferentia2 チップに基づく)

また、 Turbonomic は、適切な読み取り専用の Tier 除外ポリシーを作成し、それらを「ポリシー管理」ページ (「設定」>「ポリシー」) に表示します。

  • クロス・ターゲット・ポリシー

    クロス・ターゲット・ポリシーにより、特定のアクセラレーター・タイプを持つ AWS VM は、同じアクセラレーター構成 (カード当たりのカード数とメモリー) を持つインスタンス・タイプにのみスケーリングされるようになります。 以下のポリシーがあります。

    • AWS ML_ACCELERATOR - Inferentia1 - Cloud Compute Tier Exclusion Policy

    • AWS ML_ACCELERATOR - Inferentia2 - Cloud Compute Tier Exclusion Policy

  • ターゲットごとのポリシー

    ターゲットごとのポリシーにより、 Inferentia1 インスタンス・ファミリーのすべての VM が他のインスタンス・ファミリーにスケールアウトされないようにします。 以下のポリシーがあります。

    • Cloud Compute Tier AWS:inf1 - Cloud Compute Tier Exclusion Policy

    • Cloud Compute Tier AWS:inf2 - Cloud Compute Tier Exclusion Policy

AWS VM のスケーリングの前提条件

AWS では、一部のインスタンスは、それらのインスタンス・タイプに合わせてスケーリングする前に、特定の方法で VM を構成する必要があります。 Turbonomic が、これらのインスタンスのいずれかに適切に構成されていない VM をスケーリングすることを推奨している場合は、アクションを 「推奨」に設定し、その理由を説明します。 Turbonomic は、そのスコープのアクション受け入れモードを 「自動」に設定した場合でも、アクションを自動化しません。 このアクションは、インスタンスを適切に構成した後に手動で実行できます。

これらの要件をサポートするように構成できない VM がある場合は、 Turbonomic がこれらの推奨を行わないようにポリシーをセットアップできます。 これらの VM を含むグループを作成してから、そのスコープのポリシーを作成します。 ポリシーで、「クラウド・インスタンス・タイプ」スケーリング制約を構成することにより、インスタンス・タイプを除外します。 インスタンス・タイプの除外については、 クラウド・インスタンス・タイプを参照してください。

Turbonomic が認識するインスタンス要件は以下のとおりです。

  • 拡張ネットワーク・アダプター

    一部の VM は、Elastic Network Adapter (ENA) を介して拡張ネットワーキングをサポートするインスタンス上で実行できますが、その他の VM は、このサポートを提供しないインスタンス上で実行できます。 Turbonomic は、ENA をサポートしない VM を、サポートするインスタンスにスケーリングすることを推奨できます。 ただし、スケーリング・アクションを実行する前に、VM 上で ENA を有効にする必要があります。 ENA を必要とするインスタンスに非 ENA VM をスケーリングする場合、 AWS はスケーリング・アクションの後に VM を始動できません。

    ENA 構成については、この ページにアクセスしてください。

  • Linux AMI 仮想化タイプ

    Amazon Linux AMI は、 ParaVirtual (PV) 仮想化または Hardware Virtual Machine (HVM) 仮想化を使用できます。 Turbonomic は、必要な PV ドライバーが含まれていない HVM インスタンスに PV VM をスケーリングすることを推奨できます。

    インスタンスの仮想化タイプを確認するには、Amazon EC2 コンソールを開いて「詳細」ペインに移動し、そのインスタンスの「仮想化」フィールドを確認します。

  • 64 ビットと 32 ビットの比較

    すべての AWS インスタンスが 32 ビット VM をサポートできるわけではありません。 Turbonomic は、64 ビット・プラットフォームのみをサポートするインスタンスに 32 ビット VM をスケーリングすることを推奨できます。

  • NVMe ブロック

    一部のインスタンスは EBS ボリュームを NVMe ブロック・デバイスとして公開しますが、すべての VM が NVMe ドライバーで構成されているわけではありません。 Turbonomic は、そのような VM を NVMe をサポートするインスタンスにスケーリングすることを推奨できます。 アクションを実行する前に、VM に NVMe ドライバーをインストールする必要があります。

さらに、 Turbonomic は、VM に現在使用されているプロセッサー・タイプを認識します。 スケール・アクションの場合、 Turbonomic は、互換性のあるプロセッサーを持つインスタンス・タイプの VM を保持します。 例えば、VM が ARM ベースのインスタンス上にある場合、 Turbonomic は、他の互換性のある ARM ベースのインスタンス・タイプへのスケーリングのみを推奨します。

AWS VM のストレージのスケーリング

VM がより多くのストレージ容量を必要とする場合、 Turbonomic は、より多くのストレージを提供するインスタンスにボリュームをスケーリングするためのアクションを推奨します。 AWS は、Elastic Block Store (EBS) とインスタンス・ストレージの両方をサポートすることに注意してください。 Turbonomic は、ボリューム・アクションを推奨するため、これらのストレージ・タイプを認識します。

VM のルート・ストレージがインスタンス・ストレージの場合、 Turbonomic はアクションを推奨しません。 これは、インスタンス・ストレージが一時的なものであり、そのようなアクションを行うと、保管されているすべてのデータが VM から失われるためです。

ルート・ストレージが EBSの場合、 Turbonomic はボリューム・アクションを推奨します。 EBS は永続的であり、データはアクション後も残ります。 ただし、VM が追加のストレージにインスタンス・ストレージを使用する場合、 Turbonomic はそのストレージを計算またはアクションに含めません。

AWS EMR クラスター内のノード

Turbonomic は、 AWS EMR クラスター内のノードを通常の VM と同様に扱います。 そのため、このようなノードのスケール・アクションが誤って生成される可能性があります。 ノード・アクションが実行されると、 AWS はそのアクションを障害として検出し、ノードを強制終了して、初期サイズの新規インスタンスに置き換えます。 この問題を回避するには、EMR クラスター内のノードのスケール・アクションを無効にします。

AWS は、 システム・タグ を EMR クラスターに自動的に割り当てます。 スケール・アクションを無効にするには、これらのタグをフィルターとして使用する VM グループを作成してから、その VM グループの「すべてのクラウド・スケール」アクション・タイプを無効にする VM ポリシーを作成します。