Configurez le mode JSON dans W&B Inference pour obtenir une sortie JSON structurée à partir des réponses du modèle, afin de faciliter l’analyse.
L’activation du mode JSON demande au modèle de renvoyer la réponse dans un format JSON valide. Cependant, le schéma de la réponse peut ne pas être cohérent ni respecter une structure donnée. Pour obtenir des réponses JSON structurées cohérentes, nous vous recommandons d’utiliser la sortie structurée lorsque c’est possible.Pour activer le mode JSON, indiquez-le comme valeur de “response_format” dans la requête :
Python
Bash
import jsonimport openaiclient = openai.OpenAI( base_url='https://api.inference.wandb.ai/v1', api_key="<your-api-key>", # Créez une clé API sur https://wandb.ai/settings)response = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "You are a helpful assistant that outputs JSON."}, {"role": "user", "content": "Give me a list of three fruits with their colors."}, ], response_format={"type": "json_object"} # Cela active le mode JSON)content = response.choices[0].message.contentparsed = json.loads(content)print(parsed)
curl https://api.inference.wandb.ai/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer <your-api-key>" \ -d '{ "model": "openai/gpt-oss-20b", "messages": [ {"role": "system", "content": "You are a helpful assistant that outputs JSON."}, {"role": "user", "content": "Give me a list of three fruits with their colors."}, ], "response_format": {"type": "json_object"} }'