Guide de démarrage rapide de Weave avec TypeScript
- Journaliser et déboguer les entrées, les sorties et les traces des modèles de langage
- Créer des évaluations rigoureuses et directement comparables pour les cas d’utilisation des modèles de langage
- Organiser toutes les informations générées tout au long du flux de travail LLM, de l’expérimentation aux évaluations puis à la production
Suivi des fonctions
weave.op aux fonctions que vous souhaitez suivre.
Après avoir ajouté weave.op et appelé la fonction, consultez le tableau de bord W&B pour la voir apparaître dans votre projet.
Votre code est suivi automatiquement - consultez l’onglet Code dans l’UI !
Intégration à OpenAI
- Utilisation des tokens
- Coûts de l’API
- Paires requête-réponse
- Configurations des modèles
En plus d’OpenAI, Weave prend en charge l’enregistrement automatique d’autres fournisseurs de LLM, comme Anthropic et Mistral. Pour la liste complète, voir les fournisseurs de LLM dans la documentation sur les intégrations.
Suivi imbriqué des fonctions
- Visibilité complète sur le flux logique de votre application
- Débogage simplifié des chaînes d’opérations complexes
- Possibilités d’optimisation des performances
Gestion des jeux de données
weave.Dataset. À l’instar des Weave Models, weave.Dataset permet de :
- Suivre et versionner vos données
- Organiser les cas de test
- Partager des jeux de données entre les membres de l’équipe
- Prendre en charge des évaluations systématiques
Framework d’évaluation
Evaluation. Les évaluations vous aident à itérer de manière fiable sur votre application de GenAI. La classe Evaluation permet de :
- Évaluer les performances du
Modelsur unDataset - Appliquer des fonctions de scoring personnalisées
- Générer des rapports détaillés sur les performances
- Comparer les versions de modèles
main suivante exécute toutes les démonstrations :