メインコンテンツへスキップ

インテグレーション

Weave は、サポートされているすべてのインテグレーションに対して、デフォルトで 暗黙的パッチの自動適用 を提供します。 暗黙的パッチ適用(自動): ライブラリは、インポートするタイミングに関係なく自動的にパッチが適用されます。
# オプション1: weave.init()の前にインポート
import openai
import weave
weave.init('my-project')  # OpenAIは自動的にパッチが適用されます!

# オプション2: weave.init()の後にインポート
import weave
weave.init('my-project')
import anthropic  # インポートフック経由で自動的にパッチが適用されます!
暗黙的パッチ適用の無効化: 明示的に制御したい場合は、自動パッチ適用を無効化できます。
import weave

# オプション1: settingsパラメータを使用する場合
weave.init('my-project', settings={'implicitly_patch_integrations': False})

# オプション2: 環境変数を使用する場合
# スクリプトを実行する前にWEAVE_IMPLICITLY_PATCH_INTEGRATIONS=falseを設定してください

# 暗黙的パッチを無効にした場合、インテグレーションを明示的にパッチする必要があります
import openai
weave.patch_openai()  # OpenAIのトレースに必要
明示的なパッチ適用(手動): インテグレーションに対して明示的にパッチを適用して、きめ細かく制御できます。
import weave
weave.init('my-project')
weave.integrations.patch_openai()  # OpenAIトレーシングを有効にする
weave.integrations.patch_anthropic()  # Anthropicトレーシングを有効にする
W&B Weave は、一般的な LLM プロバイダおよびオーケストレーション・フレームワーク向けのロギングインテグレーションを提供します。これらのインテグレーションを利用すると、さまざまなライブラリ経由で行われる呼び出しをシームレスにトレースでき、AI アプリケーションの監視および分析能力を強化できます。

LLM プロバイダー

LLM プロバイダーは、大規模言語モデルへのアクセスを提供し、予測を生成できるようにするベンダーです。Weave はこれらのプロバイダーと連携し、それらの API とのやり取りをログに記録し、トレースします。 Local Models: 自前のインフラストラクチャ上でモデルを実行する場合に利用します。

フレームワーク

フレームワークは、AIアプリケーションにおける実際の実行パイプラインをオーケストレーションするための基盤となります。複雑なワークフローを構築するためのツールや抽象化を提供します。Weave はこれらのフレームワークとインテグレーションして、パイプライン全体をトレースします。

RL フレームワーク

プロトコル

Weave は標準化されたプロトコルと連携して、AI アプリケーションとそれを支えるサービス間の通信を可能にします。 上記の一覧からインテグレーションを選択して、利用している LLM プロバイダ、フレームワーク、またはプロトコルと Weave をどのように組み合わせて使うかを確認してください。LLM API に直接アクセスする場合でも、複雑なパイプラインを構築する場合でも、標準化されたプロトコルを利用する場合でも、Weave は AI アプリケーションを効果的にトレースおよび分析するためのツールを提供します。