Tracing
weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>"), puis utilisez la bibliothèque normalement.
![]() |
|---|
| Weave va maintenant suivre et consigner tous les appels LLM effectués avec Instructor. Vous pouvez consulter les traces dans l’interface web de Weave. |
Suivez vos propres ops
@weave.op, vous commencez à capturer les entrées, les sorties et la logique de l’application afin de pouvoir déboguer la façon dont les données circulent dans votre application. Vous pouvez imbriquer des ops en profondeur et construire un arbre de fonctions que vous souhaitez suivre. Cela lance également automatiquement la gestion des versions du code pendant vos expériences afin de capturer des détails ad hoc qui n’ont pas été commités dans git.
Créez simplement une fonction décorée avec @weave.op.
Dans l’exemple ci-dessous, la fonction extract_person est la fonction de métrique encapsulée avec @weave.op. Cela nous aide à voir les étapes intermédiaires, comme un appel OpenAI Chat Completion.
![]() |
|---|
Décorer la fonction extract_person avec @weave.op permet de tracer ses entrées, ses sorties et tous les appels LM internes effectués dans la fonction. Weave suit également automatiquement les objets structurés générés par Instructor et en gère les versions. |
Créer un Model pour expérimenter plus facilement
Model, vous pouvez capturer et structurer les détails expérimentaux de votre application, comme le prompt système ou le modèle que vous utilisez. Cela facilite l’organisation et la comparaison des différentes itérations de votre application.
En plus de la gestion des versions du code et de la capture des entrées/sorties, les Model capturent des paramètres structurés qui contrôlent le comportement de votre application, ce qui permet d’identifier facilement les paramètres les plus efficaces. Vous pouvez également utiliser les Weave Models avec serve (voir ci-dessous) et les Évaluation.
Dans l’exemple ci-dessous, vous pouvez expérimenter avec PersonExtractor. Chaque fois que vous modifiez l’un de ces éléments, vous obtenez une nouvelle version de PersonExtractor.
![]() |
|---|
Tracing et gestion des versions de vos appels à l’aide d’un Model |
Servir un Weave Model
weave.Model, vous pouvez lancer un serveur FastAPI et le serve.
Vous pouvez servir votre modèle avec la commande suivante dans le terminal :



