メインコンテンツへスキップ
Model Context Protocol (MCP) を使用すると、LLM エージェントはデータを効率的にクエリおよび解析し、トークンのコストを最小限に抑えられます。このページでは、W&B MCP サーバーを使って IDE や MCP クライアントから W&B データをクエリおよび解析し、クライアントから W&B のドキュメントへプログラムによるアクセスを提供する方法を説明します。これにより、クライアントは W&B に関するクエリに対して、より正確な応答を生成できるようになります。 W&B MCP サーバーは、次のようなほとんどの IDE、コーディングクライアント、およびチャットエージェントとネイティブに統合されます。
  • Cursor
  • Visual Studio Code (VS Code)
  • Claude Code
  • Codex
  • Gemini CLI
  • Mistral LeChat
  • Claude Desktop
W&B MCP サーバーは、ホスト型ローカル のバリエーションをサポートします。ホスト型バージョンは W&B Dedicated Cloud デプロイメント のみをサポートします。ローカルバージョンは Dedicated Cloud と Self-Managed デプロイメント の両方をサポートします。

W&B MCP Server の機能

MCP サーバーを使用すると、実験の分析、トレースのデバッグ、レポートの作成、アプリケーションと W&B 機能の統合に関する支援を受けられます。 次のプロンプト例は、エージェントが MCP サーバーに接続されているときに実行できるタスクの種類を示しています:
  • your-team-name/your-project-name で eval/accuracy が上位 5 件の run を表示して。
  • 採用エージェントの予測トレースのレイテンシーは、ここ数か月でどのように変化しましたか?
  • 採用エージェントが先月行った意思決定を比較する wandb レポートを生成して。
  • Weave でリーダーボードを作成するにはどうすればよいですか?SupportBot に聞いてみてください。

利用可能なツール

W&B MCP サーバーは、エージェントから次のツールにアクセスできるようにします。
ToolDescriptionExample Query
query_wandb_toolW&B の run、メトリクス、および実験をクエリする”loss が 0.1 未満の run を表示して”
query_weave_traces_toolLLM のトレースと評価を分析する”平均レイテンシはどれくらい?“
count_weave_traces_toolトレースをカウントし、ストレージメトリクスを取得する”失敗したトレースはいくつ?“
create_wandb_report_toolW&B レポートをプログラムから作成する”パフォーマンスレポートを作成して”
query_wandb_entity_projectsエンティティに属するプロジェクトを一覧表示する”どんなプロジェクトが存在する?“
query_wandb_support_botW&B ドキュメントからヘルプを参照する”Sweeps の使い方は?“

W&B のリモート MCP サーバーを使う

W&B は、インストール不要で利用できるホスト型の MCP サーバー https://mcp.withwandb.com を提供しています。以下の手順では、このホスト型サーバーを各種 AI アシスタントや IDE で利用できるように設定する方法を説明します。

前提条件

  • W&B Dedicated Cloud デプロイメント。
  • W&B の APIキー。新しいキーは wandb.ai/authorize で作成できます。
  • キーを WANDB_API_KEY という名前の環境変数に設定します。

MCP クライアントを設定する

お使いの MCP クライアントの手順が記載されたタブを選択してください。
W&B サーバーは、ワンクリックインストールリンク を使用して Cursor に自動的にインストールできます(Authorization フィールドに Bearer <your-wandb-api-key> を追加する必要があります)。または、以下の手順に従って手動でインストールすることもできます。
  1. macOS の場合は Cursor メニューを開き、Settings を選択してから Cursor Settings を選択します。Windows または Linux の場合は Preferences メニューを開き、Settings を選択してから Cursor Settings を選択します。
  2. Cursor Settings メニューから Tools and MCP を選択します。Tools メニューが開きます。
  3. Installed MCP Servers セクションで Add Custom MCP を選択します。これにより mcp.json 設定ファイルが開きます。
  4. 設定ファイル内の mcpServers JSON オブジェクトに、次の wandb オブジェクトを追加します。
{
  "mcpServers": {
    "wandb": {
      "transport": "http",
      "url": "https://mcp.withwandb.com/mcp",
      "headers": {
        "Authorization": "Bearer <your-wandb-api-key>",
        "Accept": "application/json, text/event-stream"
      }
    }
  }
}
  1. 変更を有効にするために Cursor を再起動します。
  2. 「List the projects in my W&B account.」というプロンプトを入力して、チャットエージェントが W&B MCP サーバーにアクセスできることを確認します。
詳しい情報は Cursor のドキュメント を参照してください。

ローカル環境に W&B MCP サーバーをセットアップする

W&B Self-Managed デプロイメント、開発、テスト、またはエアギャップ環境で MCP サーバーをローカル環境で実行する必要がある場合は、ローカルマシンにインストールして実行できます。

前提条件

  • W&B の APIキー。新しいキーは wandb.ai/authorize で作成できます。
  • キーを WANDB_API_KEY という名前の環境変数として設定します。
  • W&B Self-Managed を使用している場合は、環境変数 WANDB_BASE_URL を設定します。
  • Python 3.10 以上
  • uv(推奨)または pip
インストール手順については、uv のドキュメントの installation instructions を参照してください。

MCP サーバーのインストールと設定

MCP サーバーをローカルにインストールするには: ローカルマシンに W&B MCP サーバーをインストールするには、次のいずれかのコマンドを使用します:
uv install wandb-mcp-server
MCP サーバーをローカルにインストールしたら、MCP クライアントがそれを利用できるように設定します。使用している MCP クライアントを選択してください:
mcp.json 設定に次の内容を追加します:
{
  "mcpServers": {
    "wandb": {
      "command": "uvx",
      "args": [
        "--from",
        "git+https://github.com/wandb/wandb-mcp-server",
        "wandb_mcp_server"
      ],
      "env": {
        "WANDB_API_KEY": "<your-wandb-api-key>",
        "WANDB_BASE_URL": "https://your-wandb-instance.example.com"
      }
    }
  }
}
Web ベースのクライアントやテスト用途では、HTTP トランスポートでサーバーを実行します。
uvx wandb_mcp_server --transport http --host 0.0.0.0 --port 8080
ローカルサーバーを OpenAI などの外部クライアントからアクセス可能にするには、ngrok を使用してください。
uvx wandb_mcp_server --transport http --port 8080

# 別のターミナルで、ngrokを使って公開する
ngrok http 8080
サーバーを ngrok で公開する場合は、MCP クライアントの設定を更新し、ngrok の URL を使用するようにしてください。

使用時のヒント

  • W&B のプロジェクト名と entity 名を指定する: 正確な結果を得るために、クエリ内で W&B の entity とプロジェクトを指定します。
  • 漠然とした質問は避ける: 「私のベストな評価は何ですか?」ではなく、「どの eval の f1スコアが最も高いですか?」のように尋ねます。
  • データ取得を確認する: 「最も性能の良い run はどれですか?」のような包括的な質問をする場合は、利用可能なすべての run を取得できたかどうか、アシスタントに確認させます。