メインコンテンツへスキップ
Run Comparerを使用して、プロジェクト内のrunの違いや共通点を確認できます。

Run Comparer パネルを追加する

  1. ページ右上の Add panels ボタンをクリックします。
  2. Evaluation セクションで Run comparer を選択します。

Run Comparer を使う

Run Comparer では、プロジェクト内で最初に表示されている 10 個の run について、その設定と記録されたメトリクスを、run ごとに 1 列で表示します。
  • 比較する run を変更するには、左側の run 一覧で検索、フィルタ、グループ化、またはソートを行います。Run Comparer は自動的に更新されます。
  • Run Comparer 上部の検索フィールドを使用して、Python のバージョンや run の作成時刻などの設定キーまたはメタデータキーでフィルタや検索を行います。
  • 差分のみをすばやく確認し、同一の値を非表示にするには、パネル上部の Diff only を切り替えます。
  • 列幅や行の高さを調整するには、パネル上部の書式設定ボタンを使用します。
  • 任意の設定値またはメトリクス値をコピーするには、値の上にマウスカーソルを置き、コピーボタンをクリックします。画面に収まりきらない場合でも、値全体がコピーされます。
デフォルトでは、Run Comparer は job_type の値が異なる run を区別しません。つまり、同一プロジェクト内で本来は比較対象とならない run 同士を比較できてしまう可能性があります。たとえば、学習 run とモデル評価 run を比較することができます。学習 run には、run ログ、ハイパーパラメータ、学習損失メトリクス、そしてモデル本体が含まれる場合があります。評価 run では、そのモデルを用いて新しい学習データに対するモデルの性能を確認します。Runs Table で run の一覧を検索、フィルタ、グループ化、またはソートすると、Run Comparer は自動的に更新され、先頭の 10 個の run を比較します。Runs Table 内でフィルタや検索を行い、job_type で一覧をフィルタまたはソートするなどして、類似した run 同士を比較してください。run のフィルタリングの詳細をご覧ください。