client.chat.completions.create()(또는 동등한 호출)을 @weave.op으로 감싸거나 수동으로 계측해야 하는데, 이는 번거롭고 누락되기 쉽습니다.
Weave는 지원되는 LLM 클라이언트 라이브러리를 자동으로 가로채(패칭하여) 계측합니다. 애플리케이션 코드는 변경하지 않아도 됩니다. 평소처럼 프로바이더 SDK를 사용하기만 하면, 각 요청이 Weave Call로 기록됩니다. 최소한의 설정으로 전체 트레이싱 기능을 사용할 수 있습니다.
LLM 공급자
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
프레임워크
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Agno
- Koog