Passer au contenu principal
W&B Weave propose des intégrations de logging pour les fournisseurs de LLM et les frameworks d’orchestration les plus courants. Ces intégrations vous permettent de tracer facilement les appels effectués via différentes bibliothèques, ce qui améliore votre capacité à surveiller et analyser vos applications d’IA. Si vous utilisez dans votre application des bibliothèques de fournisseurs de LLM (comme OpenAI, Anthropic, Cohere ou Mistral), vous voulez que ces appels d’API apparaissent dans W&B Weave comme des appels tracés : entrées, sorties, latence, utilisation des tokens et coût. Sans cela, vous devriez encapsuler chaque client.chat.completions.create() (ou équivalent) dans @weave.op ou recourir à une instrumentation manuelle, ce qui est fastidieux et il est facile d’oublier quelque chose. Weave intercepte automatiquement (patche) les bibliothèques clientes LLM prises en charge. Le code de votre application reste inchangé : vous utilisez le SDK du fournisseur comme d’habitude, et chaque requête est enregistrée comme un appel Weave. Vous bénéficiez d’un tracing complet avec une configuration minimale.

Fournisseurs de LLM

Les fournisseurs de LLM sont les prestataires qui donnent accès à de grands modèles de langage pour générer des prédictions. Weave s’intègre à ces fournisseurs pour journaliser et tracer les interactions avec leurs API : Modèles locaux : pour les cas où vous exécutez des modèles sur votre propre infrastructure.

Frameworks

Les frameworks aident à orchestrer les pipelines d’exécution des applications d’IA. Ils fournissent des outils et des abstractions pour créer des flux de travail complexes. Weave s’intègre à ces frameworks pour tracer l’ensemble du pipeline :

Frameworks de RL

Protocoles

Weave s’intègre à des protocoles standardisés qui permettent la communication entre les applications d’IA et les services qui les prennent en charge : Choisissez une intégration dans les listes ci-dessus pour en savoir plus sur la manière d’utiliser Weave avec votre fournisseur de LLM, framework ou protocole préféré. Que vous accédiez directement aux API de LLM, construisiez des pipelines complexes ou utilisiez des protocoles standardisés, Weave fournit les outils nécessaires pour tracer et analyser efficacement vos applications d’IA.