OpenAI

OpenAI モデルには および GPT-3.5 が含まれ、これらはテキストとコードの膨大なデータセットで訓練 GPT-4 されたトランスフォーマーベースのニューラルネットワークである。 OpenAI モデルは、多様な自然言語を理解し生成することを可能にします。 これらのモデルは、文脈認識とパターン認識のために深層学習技術を活用し、テキスト補完、翻訳、対話型AIなどのタスクを促進します。 これらのモデルには、開発者が高度なAI機能を様々なアプリケーションに統合するための柔軟なプラットフォームを提供するAPIを使用してアクセスできます。

アプリケーションの OpenAI 計測

アプリケーション OpenAI を計測するには、次の手順を完了してください:

環境がすべての前提条件を満たしていることを確認してください。 詳細については、 「前提条件」 を参照してください。

  1. 依存関係をインストールするには、次のコマンド OpeanAI, を実行してください:

    pip3 install openai==1.58.1
    
  2. サンプルアプリケーションで使用されているモデル OpenAI にアクセスするための以下の認証情報をエクスポートしてください。

    export OPENAI_API_KEY=<openai-api-key>
    

    API OpenAI にアクセスするためのAPIキーを作成するか、既存のキーを使用するには、を OpenAI 参照してください。

  3. 以下のコードを実行してサンプル OpenAI アプリケーションを生成します:

    import os, time, random
    from openai import OpenAI
    from traceloop.sdk import Traceloop
    from traceloop.sdk.decorators import workflow
    
    client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
    
    Traceloop.init(app_name="openai_chat_service", disable_batch=True)
    
    @workflow(name="streaming_ask")
    def ask_workflow():
        models = [ "gpt-3.5-turbo", "gpt-4-turbo-preview" ]
        mod = random.choice(models)
        questions = [ "What is AIOps?", "What is GitOps?" ]
        question = random.choice(questions)
        stream = client.chat.completions.create(
            model=mod,
            messages=[{"role": "user", "content": question}],
            stream=True,
        )
        for part in stream:
            print(part.choices[0].delta.content or "", end="")
    
    for i in range(10):
        ask_workflow()
        time.sleep(3)
    
  4. アプリケーションを実行するには、次のコマンドを実行してください:

    python3 ./<openai-sample-application>.py
    

監視を設定すると、Instanaはサンプルアプリケーションから以下のトレースとメトリクスを収集します:

LLMから収集したトレースを表示するには、 「トレース表示用のアプリケーション・パースペクティブの作成」 を参照してください。

LLMから収集されたメトリクスを表示するには、 [メトリクスの表示] を参照してください。

LLMセキュリティの追加

個人識別情報(PII)がLLMに晒されると、契約上の義務違反やデータ漏洩・データ侵害のリスク増加など、深刻なセキュリティおよびプライバシー上のリスクにつながる可能性があります。 詳細については、 LLMセキュリティを参照してください。