メインコンテンツへスキップ
OpenAI’s GPT OSS 20B のような推論モデルは、最終的な回答に加えて、返される出力の一部として推論ステップに関する情報も含みます。これは自動で行われ、追加の入力パラメーターは不要です。 あるモデルが推論をサポートしているかどうかは、UI 上のカタログページにある「Supported Features」セクションを確認することで判断できます。 推論情報はレスポンスの reasoning_content フィールドに含まれています。このフィールドは、他のモデルの出力には存在しません。
import openai

client = openai.OpenAI(
    base_url='https://api.inference.wandb.ai/v1',
    api_key="<your-api-key>",  # https://wandb.ai/settings で APIキーを作成
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {"role": "user", "content": "3.11 and 3.8, which is greater?"}
    ],
)

print(response.choices[0].message.reasoning_content)
print("--------------------------------")
print(response.choices[0].message.content)