OpenAI
OpenAI モデルには および GPT-3.5 が含まれ、これらはテキストとコードの膨大なデータセットで訓練 GPT-4 されたトランスフォーマーベースのニューラルネットワークである。 OpenAI モデルは、多様な自然言語を理解し生成することを可能にします。 これらのモデルは、文脈認識とパターン認識のために深層学習技術を活用し、テキスト補完、翻訳、対話型AIなどのタスクを促進します。 これらのモデルには、開発者が高度なAI機能を様々なアプリケーションに統合するための柔軟なプラットフォームを提供するAPIを使用してアクセスできます。
アプリケーションの OpenAI 計測
アプリケーション OpenAI を計測するには、次の手順を完了してください:
環境がすべての前提条件を満たしていることを確認してください。 詳細については、 「前提条件」 を参照してください。
依存関係をインストールするには、次のコマンド OpeanAI, を実行してください:
pip3 install openai==1.58.1サンプルアプリケーションで使用されているモデル OpenAI にアクセスするための以下の認証情報をエクスポートしてください。
export OPENAI_API_KEY=<openai-api-key>API OpenAI にアクセスするためのAPIキーを作成するか、既存のキーを使用するには、を OpenAI 参照してください。
以下のコードを実行してサンプル OpenAI アプリケーションを生成します:
import os, time, random from openai import OpenAI from traceloop.sdk import Traceloop from traceloop.sdk.decorators import workflow client = OpenAI(api_key=os.getenv("OPENAI_API_KEY")) Traceloop.init(app_name="openai_chat_service", disable_batch=True) @workflow(name="streaming_ask") def ask_workflow(): models = [ "gpt-3.5-turbo", "gpt-4-turbo-preview" ] mod = random.choice(models) questions = [ "What is AIOps?", "What is GitOps?" ] question = random.choice(questions) stream = client.chat.completions.create( model=mod, messages=[{"role": "user", "content": question}], stream=True, ) for part in stream: print(part.choices[0].delta.content or "", end="") for i in range(10): ask_workflow() time.sleep(3)アプリケーションを実行するには、次のコマンドを実行してください:
python3 ./<openai-sample-application>.py
監視を設定すると、Instanaはサンプルアプリケーションから以下のトレースとメトリクスを収集します:
LLMから収集したトレースを表示するには、 「トレース表示用のアプリケーション・パースペクティブの作成」 を参照してください。
LLMから収集されたメトリクスを表示するには、 [メトリクスの表示] を参照してください。
LLMセキュリティの追加
個人識別情報(PII)がLLMに晒されると、契約上の義務違反やデータ漏洩・データ侵害のリスク増加など、深刻なセキュリティおよびプライバシー上のリスクにつながる可能性があります。 詳細については、 LLMセキュリティを参照してください。