メインコンテンツへスキップ
数行のコードで機械学習実験を追跡できます。その後、インタラクティブなダッシュボードで結果を確認するか、データを Python にエクスポートして、Public API を使用してプログラムから利用できます。 Keras などの一般的なフレームワークを使用している場合は、W&B Integrations を活用できます。利用可能なインテグレーションの一覧や、コードに W&B を追加する方法については、W&B Integrations を参照してください。
Experiments ダッシュボード
上の画像は、複数の runs にわたるメトリクスを表示および比較できるダッシュボードの例を示しています。

仕組み

数行のコードで機械学習実験をトラッキングできます。
  1. W&B Run を作成します。
  2. 学習率やモデルタイプなどのハイパーパラメータの辞書を設定(wandb.Run.config)に保存します。
  3. 学習ループ内で wandb.Run.log() を使って、精度や損失などのメトリクスを時間経過とともにログします。
  4. モデルの重みや予測結果のテーブルなど、その run の出力を保存します。
以下のコードは、一般的な W&B による実験トラッキングのワークフローを示しています。
# runを開始する。
#
# このブロックを抜けると、ログされたデータのアップロード完了を待機する。
# 例外が発生した場合、runは失敗としてマークされる。
with wandb.init(entity="", project="my-project-name") as run:
  # モデルの入力とハイパーパラメータを保存する。
  run.config.learning_rate = 0.01

  # 実験コードを実行する。
  for epoch in range(num_epochs):
    # 学習を実行する...

    # モデルのパフォーマンスを可視化するためにメトリクスを継続的にログする。
    run.log({"loss": loss})

  # モデルの出力をアーティファクトとしてアップロードする。
  run.log_artifact(model)

はじめに

ユースケースに応じて、以下のリソースを活用して W&B Experiments の利用を開始してください。
  • W&B クイックスタート を読んで、データセットのアーティファクトを作成・トラッキング・利用するために使用できる W&B Python SDK コマンドをステップバイステップで確認してください。
  • この章では、次の内容について学びます。
    • Experiment を作成する
    • Experiments を設定する
    • Experiments からデータを記録する
    • Experiments の結果を確認する
  • W&B API Reference Guide 内の W&B Python Library を参照してください。

ベストプラクティスとヒント

実験やロギングに関するベストプラクティスとヒントについては、Best Practices: Experiments and Logging を参照してください。