Tous les exemples de code présentés sur cette page sont en Python.
Cette page explique comment intégrer Smolagents à W&B Weave pour suivre et analyser vos applications agentiques. Vous apprendrez à journaliser les inférences de modèle, à surveiller les appels de fonction et à organiser les Experiments à l’aide des fonctionnalités de Tracing et de gestion des versions de Weave. En suivant les exemples fournis, vous pourrez obtenir des informations précieuses, déboguer efficacement vos applications et comparer différentes configurations de modèle, le tout dans l’interface web de Weave.
Smolagents est un framework simple qui offre un minimum d’abstractions pour créer de puissantes applications agentiques. Il prend en charge plusieurs fournisseurs de LLM, comme OpenAI, Hugging Face Transformers et Anthropic.
Weave capture automatiquement les traces de Smolagents. Pour commencer le suivi, appelez weave.init() et utilisez la bibliothèque comme d’habitude.
-
Avant de pouvoir utiliser Smolagents avec Weave, installez les bibliothèques requises ou mettez-les à jour vers leur dernière version. La commande suivante installe ou met à jour
smolagents, openai et weave, et masque la sortie :
pip install -U smolagents openai weave -qqq
-
Smolagents prend en charge plusieurs fournisseurs de LLM, comme OpenAI, Hugging Face Transformers et Anthropic. Définissez la clé API du fournisseur de votre choix via la variable d’environnement correspondante :
import os
import getpass
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter your OpenAI API key: ")
Stocker les traces des applications de modèles de langage dans un emplacement central est essentiel, aussi bien pendant le développement qu’en production. Ces traces facilitent le débogage et constituent de précieux jeux de données pour améliorer votre application.
Weave capture automatiquement les traces pour Smolagents. Pour commencer le suivi, initialisez Weave en appelant weave.init(), puis utilisez la bibliothèque comme d’habitude.
L’exemple suivant montre comment enregistrer les appels d’Inférence d’un agent LLM utilisant des outils avec Weave. Dans ce scénario :
- Vous définissez un modèle de langage (le
gpt-4o d’OpenAI) à l’aide de OpenAIServerModel de Smolagents.
- Vous configurez un outil de recherche (
DuckDuckGoSearchTool) que l’agent peut invoquer si nécessaire.
- Vous créez un
ToolCallingAgent en lui passant l’outil et le modèle.
- Vous exécutez une requête via l’agent, ce qui déclenche l’outil de recherche.
- Weave enregistre chaque appel de fonction et de modèle, puis les rend disponibles pour inspection via son interface web.
import weave
from smolagents import DuckDuckGoSearchTool, OpenAIServerModel, ToolCallingAgent
# Initialiser Weave
weave.init(project_name="smolagents")
# Définir votre fournisseur LLM pris en charge par Smolagents
model = OpenAIServerModel(model_id="gpt-4o")
# Définir un outil de recherche web DuckDuckGo basé sur votre requête
search_tool = DuckDuckGoSearchTool()
# Définir un agent d'appel d'outils
agent = ToolCallingAgent(tools=[search_tool], model=model)
answer = agent.run(
"Get me just the title of the page at url 'https://wandb.ai/geekyrakshit/story-illustration/reports/Building-a-GenAI-assisted-automatic-story-illustrator--Vmlldzo5MTYxNTkw'?"
)
Une fois l’exemple de code exécuté, accédez au tableau de bord de votre projet Weave pour consulter les traces.
Vous pouvez déclarer des outils personnalisés pour vos flux de travail agentiques en décorant une fonction avec @tool de smolagents ou en héritant de la classe smolagents.Tool.
Weave suit automatiquement les appels d’outils personnalisés dans vos flux de travail Smolagents. L’exemple suivant montre comment journaliser un appel à un outil Smolagents personnalisé avec Weave :
- Une fonction
get_weather personnalisée est définie et décorée avec @tool de Smolagents, ce qui permet à l’agent de l’invoquer dans son processus de raisonnement.
- La fonction accepte un emplacement et un indicateur facultatif pour afficher le résultat en Celsius.
- Un modèle de langage est instancié à l’aide de
OpenAIServerModel.
- Un
ToolCallingAgent est créé avec l’outil personnalisé et le modèle.
- Lorsque l’agent exécute la requête, il sélectionne et invoque l’outil
get_weather.
- Weave journalise à la fois l’inférence du modèle et l’invocation de l’outil personnalisé, y compris les arguments et les valeurs de retour.
from typing import Optional
import weave
from smolagents import OpenAIServerModel, ToolCallingAgent, tool
weave.init(project_name="smolagents")
@tool
def get_weather(location: str, celsius: Optional[bool] = False) -> str:
"""
Obtenir la météo pour les prochains jours à un emplacement donné.
Args:
location: L'emplacement.
celsius: Indique si la température doit être en Celsius.
"""
return f"The weather in {location} is sunny with temperatures around 7°C."
model = OpenAIServerModel(model_id="gpt-4o")
agent = ToolCallingAgent(tools=[get_weather], model=model)
answer = agent.run("What is the weather in Tokyo?")
Une fois que vous avez exécuté l’exemple de code, accédez au tableau de bord de votre projet Weave pour afficher les traces.