料金
推論
学習
モデルストレージ
制限
-
Inference の同時実行制限: デフォルトでは、Serverless RL は現在、ユーザーあたり最大 2000 件、プロジェクトあたり最大 6000 件の同時リクエストをサポートします。レート制限を超えると、Inference API は
429 Concurrency limit reached for requestsというレスポンスを返します。このエラーを回避するには、学習ジョブまたは本番ワークロードが一度に送信する同時リクエスト数を減らしてください。より高いレート制限が必要な場合は、support@wandb.com までお問い合わせください。 - 地理的な制限: Serverless RL は、サポートされている地域でのみ利用可能です。詳細については、利用規約 を参照してください。