Premiers pas
weave.init() au début de votre script. L’argument de weave.init() est un nom de projet qui vous aidera à organiser vos traces.
Tracing
Observabilité en un clic 🔭
WeaveCallbackHandler() à llama_index.core.global_handler. Ainsi, si vous utilisez LlamaIndex et Weave, il vous suffit d’initialiser un run Weave - weave.init(<name-of-project>)
Créer un Model pour faciliter l’expérimentation
weave.Model, vous pouvez consigner et organiser des détails expérimentaux, comme les prompts système ou les modèles que vous utilisez, ce qui facilite la comparaison des différentes itérations.
L’exemple suivant montre comment créer un moteur de requête LlamaIndex dans un WeaveModel, à partir de données disponibles dans le dossier weave/data :
SimpleRAGPipeline, une sous-classe de weave.Model, regroupe les paramètres importants de ce pipeline RAG. Décorer la méthode query avec weave.op() permet d’activer le Tracing.
Effectuer une évaluation avec weave.Evaluation
weave.Evaluation, vous pouvez mesurer les performances de votre modèle sur des tâches ou des jeux de données spécifiques, ce qui facilite la comparaison entre différents modèles et différentes itérations de votre application. L’exemple suivant montre comment évaluer le modèle que nous avons créé :
weave.Evaluation, vous avez besoin d’un jeu de données d’évaluation, d’une fonction de scorer et d’un weave.Model. Voici quelques points à noter sur ces trois composants clés :
- Assurez-vous que les clés des
dictd’échantillons d’évaluation correspondent aux arguments de la fonction de scorer et de la méthodepredictduweave.Model. - Le
weave.Modeldoit avoir une méthode nomméepredict,inferouforward. Décorez cette méthode avecweave.op()pour le Tracing. - La fonction de scorer doit être décorée avec
weave.op()et doit avoiroutputcomme argument nommé.
En intégrant Weave à LlamaIndex, vous pouvez assurer une journalisation et une surveillance complètes de vos applications LLM, ce qui facilite le débogage et l’optimisation des performances à l’aide de l’évaluation.