weave.init() が呼び出された後に、LiteLLM 経由の LLM 呼び出しを自動的に追跡してログに記録します。
トレース
注: LiteLLM を使用する場合は、Weave は LiteLLM のトレースを自動的にキャプチャします。ライブラリは通常どおり使用でき、まずはimport litellmでライブラリをインポートし、from litellm import completionではなくlitellm.completionとして completion 関数を呼び出してください。これにより、すべての関数やパラメータが正しく参照されます。
weave.init() を呼び出してください。
独自の ops でラップする
@weave.op() でデコレートした関数を作成し、その中で LiteLLM の completion 関数を呼び出すだけで、Weave が入力と出力を追跡します。次に例を示します:
より簡単に実験するために Model を作成する
Model クラスを使うと、システムプロンプトや使用しているモデルなど、アプリの実験に関する詳細を記録・整理できます。これにより、アプリのさまざまなバージョンを体系的に整理して比較しやすくなります。
コードのバージョニングや入出力の記録に加えて、Models はアプリケーションの動作を制御するパラメータを構造化して保持するため、どのパラメータが最も有効だったかを簡単に見つけることができます。Weave Models は serve や Evaluations と組み合わせて利用することもできます。
次の例では、異なるモデルや temperature パラメータを変えて実験できます。
Function Calling
