メインコンテンツへスキップ
現在パブリックプレビュー中の Serverless SFT は、厳選されたデータセットを用いた教師あり学習によって LLM をファインチューニングするのに役立ちます。W&B が学習用インフラストラクチャ(CoreWeave 上)をプロビジョニングしつつ、環境のセットアップには十分な柔軟性を確保できます。Serverless SFT により、学習ワークロードに応じて弾力的に自動スケールするマネージドな学習クラスターへ即座にアクセスできます。 Serverless SFT は次のようなタスクに最適です:
  • Distillation: より大きく高性能なモデルから、より小さく高速なモデルへ知識を蒸留・移転する
  • 出力スタイルとフォーマットの学習: 特定の応答フォーマット、トーン、構造に従うようモデルを学習させる
  • RL 前のウォームアップ: さらなる洗練のために強化学習を適用する前に、教師ありのサンプルでモデルを事前学習させる
Serverless SFT は、特定のタスク向けにモデルを専門化するための Low-Rank Adapter (LoRA) を学習します。学習した LoRA は自動的に W&B アカウントのアーティファクトとして保存され、ローカルやサードパーティ環境にバックアップとして保存することもできます。Serverless SFT を使って学習したモデルは、W&B Inference 上に自動的にホスティングされます。 詳細については、ART の Serverless SFT ドキュメント を参照してください。

なぜ Serverless SFT なのか?

Supervised fine-tuning (SFT) は、厳選された入出力の例からモデルを学習させる学習手法です。W&B 上の Serverless SFT には次のような利点があります。
  • 学習コストの削減: 共通のインフラを多くのユーザーで共有し、ジョブごとのセットアッププロセスを省略し、アクティブに学習していないときは GPU コストを 0 までスケールダウンすることで、Serverless SFT は学習コストを大幅に削減します。
  • 学習時間の短縮: 必要なときにすぐ学習用インフラをプロビジョニングすることで、Serverless SFT は学習ジョブを高速化し、高速な反復を可能にします。
  • 自動デプロイ: Serverless SFT は、学習したすべてのチェックポイントを自動的にデプロイし、ホスティングインフラを手動で構築する必要をなくします。学習済みモデルには、ローカル、ステージング、本番などの環境から即座にアクセスしてテストできます。

Serverless SFT が W&B サービスをどのように利用するか

Serverless SFT は、動作のために次の W&B コンポーネントを組み合わせて利用します。
  • Inference: モデルを実行するため
  • Models: LoRA アダプターの学習中のパフォーマンスメトリクスを追跡するため
  • Artifacts: LoRA アダプターを保存およびバージョン管理するため
  • Weave (optional): 学習ループの各ステップでモデルがどのように応答するかを観測できるようにするため
Serverless SFT はパブリックプレビュー中です。プレビュー期間中は、Inference の利用とアーティファクトの保存に対してのみ料金が発生します。W&B は、プレビュー期間中のアダプターの学習については料金を請求しません。