LLM Playground を使用すると、セットアップ不要で Weave 上で Google AI モデルを試すことができます。
- Python SDK、Node.js SDK、Go SDK、および REST から利用可能な Google GenAI SDK
- Google の Gemini モデルおよびさまざまなパートナーモデルへのアクセスを提供する Google Vertex AI API
非推奨となっている Google AI Python SDK for the Gemini API についてもサポートしています。ただし、このサポート自体も非推奨であり、今後のバージョンで削除される予定です。
はじめに
weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出してから、通常どおりライブラリを使用します。
Weave は Vertex APIs のトレースも自動的に記録します。追跡を開始するには、weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出し、そのあとは通常どおりライブラリを使用してください。
自分の op をトラッキングする
@weave.op でラップすると、入力・出力・アプリのロジックのキャプチャが始まり、データがアプリ内をどのように流れているかをデバッグできます。op を深くネストして、トラッキングしたい関数の木構造を構築できます。これにより、まだ git にコミットされていないアドホックな詳細も含めて、実験中のコードが自動的にバージョン管理されます。
@weave.op でデコレートされた関数を作成するだけです。
次の例では、ある都市で訪れる場所を推薦する recommend_places_to_visit という関数があり、これは @weave.op でラップされた関数です。
実験をしやすくするために Model を作成する
Model クラスを使用すると、システムプロンプトや使用しているモデルなど、アプリの実験に関する詳細を記録・整理できます。これにより、アプリのさまざまなバージョンや反復を整理して比較しやすくなります。
コードのバージョニングや入出力の記録に加えて、Model はアプリケーションの挙動を制御する構造化パラメータも保持するため、どのパラメータ設定が最も有効だったかを簡単に見つけられます。また、Weave Models を serve や Evaluation と組み合わせて使用することもできます。
次の例では、CityVisitRecommender を使って実験できます。これらのいずれかを変更するたびに、新しい CityVisitRecommender の バージョン が作成されます。