メインコンテンツへスキップ
W&B Inference では、複数のオープンソースの基盤モデルにアクセスできます。各モデルには、それぞれ異なる強みとユースケースがあります。

モデルカタログ

モデルモデル ID(API 利用時)タイプコンテキストウィンドウパラメータ数説明
DeepSeek V3.1deepseek-ai/DeepSeek-V3.1テキスト161K37B-671B(アクティブ-総数)プロンプトテンプレートにより、「思考モード」と「通常モード」の両方をサポートする大規模なハイブリッドモデルです。
Meta Llama 4 Scoutmeta-llama/Llama-4-Scout-17B-16E-Instructテキスト、ビジョン64K17B-109B(アクティブ-総数)テキストと画像の理解を統合したマルチモーダルモデルで、視覚タスクや複雑な分析に最適です。
Meta Llama 3.3 70Bmeta-llama/Llama-3.3-70B-Instructテキスト128K70B(総数)対話タスク、詳細な指示追従、コーディングに優れた多言語モデルです。
Meta Llama 3.1 70Bmeta-llama/Llama-3.1-70B-Instructテキスト128K70B(総数)応答性の高い多言語チャットボット対話向けに最適化された高効率な対話モデルです。
Meta Llama 3.1 8Bmeta-llama/Llama-3.1-8B-Instructテキスト128K8B(総数)応答性の高い多言語チャットボット対話向けに最適化された高効率な対話モデルです。
Microsoft Phi 4 Mini 3.8Bmicrosoft/Phi-4-mini-instructテキスト128K3.8B(総数)リソース制約の厳しい環境での高速応答に適した、コンパクトで高効率なモデルです。
MiniMax M2.5MiniMaxAI/MiniMax-M2.5テキスト197K10B-230B(アクティブ-総数)高スループットかつ低レイテンシを実現しつつ、優れたコード生成性能を備えるよう設計された、高度にスパースなアーキテクチャのMoEモデルです。
Moonshot AI Kimi K2.5moonshotai/Kimi-K2.5テキスト・ビジョン262K32B-1T(アクティブ-合計)Kimi K2.5は、アクティブパラメータ32B、総パラメータ1Tを備えたマルチモーダルなMixture-of-Experts(MoE)言語モデルです。
OpenAI GPT OSS 120Bopenai/gpt-oss-120bテキスト131K5.1B-117B(アクティブ-合計)高度な推論能力、エージェントタスク、および汎用的なユースケース向けに設計された、高効率なMixture-of-Experts(MoE)モデルです。
OpenAI GPT OSS 20Bopenai/gpt-oss-20bテキスト131K3.6B-20B(アクティブ-合計)OpenAIのHarmonyレスポンス形式で学習され、推論能力を備えた、低レイテンシなMixture-of-Experts(MoE)モデルです。
OpenPipe Qwen3 14B InstructOpenPipe/Qwen3-14B-Instructテキスト32.8K14.8B(合計)多言語対応の高効率なデンス型インストラクションチューニング済みモデルであり、エージェントをファインチューニングして構築する用途向けにOpenPipeが最適化しています。
Qwen3 235B A22B Thinking-2507Qwen/Qwen3-235B-A22B-Thinking-2507テキスト262K22B-235B(アクティブ-合計)構造化推論、数式処理、長文生成に最適化された高性能なMixture-of-Experts(MoE)モデルです。
Qwen3 235B A22B-2507Qwen/Qwen3-235B-A22B-Instruct-2507テキスト262K22B-235B(アクティブ-合計)多言語対応の高効率なMixture-of-Experts(MoE)インストラクションチューニング済みモデルで、論理的推論に最適化されています。
Qwen3 30B A3BQwen/Qwen3-30B-A3B-Instruct-2507テキスト262K3.3B-30.5B(アクティブ-合計)Qwen3-30B-A3B-Instruct-2507は、推論・コード生成・長文コンテキスト理解を強化した、30.5B規模のMoEインストラクションチューニング済みモデルです。
Qwen3 Coder 480B A35BQwen/Qwen3-Coder-480B-A35B-Instructテキスト262K35B-480B(アクティブ-合計)関数呼び出しやツール利用、長大なコンテキストを扱う推論などのエージェント型コーディングタスク向けに最適化された Mixture-of-Experts(MoE)モデル。
Z.AI GLM 5zai-org/GLM-5-FP8テキスト200K40B-744B (Active-Total)長期的なエージェント型タスク向けの Mixture-of-Experts(MoE)モデルで、推論およびコーディングで高い性能を発揮します。
DeepSeek R1-0528(非推奨)deepseek-ai/DeepSeek-R1-0528テキスト161K37B-680B (Active-Total)複雑なコーディング、数学、構造化ドキュメント解析を含む高精度な推論タスク向けに最適化されたモデル。
DeepSeek V3-0324(非推奨)deepseek-ai/DeepSeek-V3-0324テキスト161K37B-680B (Active-Total)高い複雑性を伴う言語処理や包括的なドキュメント解析向けに特化した、堅牢な Mixture-of-Experts(MoE)モデル。
Moonshot AI Kimi K2(非推奨)moonshotai/Kimi-K2-Instructテキスト131K32B-1T (Active-Total)複雑なツール利用、推論、およびコード生成に最適化された Mixture-of-Experts(MoE)モデル。
Moonshot AI Kimi K2 Instruct 0905(非推奨)moonshotai/Kimi-K2-Instruct-0905テキスト262K32B-1T (Active-Total)32B のアクティブパラメータと合計 1T パラメータを備えた、Kimi K2 Mixture-of-Experts(MoE)言語モデルの最新バージョン。
Qwen2.5 14B Instruct(非推奨)Qwen/Qwen2.5-14B-Instructテキスト32.8K14.7B (Total)ツール利用と構造化出力をサポートする、高性能な多言語インストラクションチューニング済みモデル。
Z.AI GLM 4.5(非推奨)zai-org/GLM-4.5テキスト131K32B-355B (Active-Total)強力な推論、コード生成、およびエージェントアラインメントのために、ユーザーが制御可能な思考モード/非思考モードを備えた Mixture-of-Experts(MoE)モデル。

モデル ID の使用

API を使用する場合は、上の表に記載されている Model ID を使ってモデルを指定します。例えば、次のように指定します。
response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[...]
)

次のステップ