메인 콘텐츠로 건너뛰기
W&B Weave는 인기 있는 LLM 프로바이더와 오케스트레이션 프레임워크에 대한 로깅 인테그레이션을 제공합니다. 이러한 인테그레이션을 사용하면 다양한 라이브러리를 통해 발생한 호출을 원활하게 추적하여, AI 애플리케이션을 모니터링하고 분석할 수 있는 역량을 높일 수 있습니다. 애플리케이션에서 LLM 프로바이더 라이브러리(예: OpenAI, Anthropic, Cohere, Mistral)를 사용하는 경우, 해당 API 호출이 W&B Weave에 추적된 Call로 나타나기를 원할 것입니다. 입력, 출력, 지연 시간, 토큰 사용량, 비용 등이 여기에 포함됩니다. 이 기능이 없다면, 모든 client.chat.completions.create()(또는 동등한 호출)을 @weave.op으로 감싸거나 수동으로 계측해야 하는데, 이는 번거롭고 누락되기 쉽습니다. Weave는 지원되는 LLM 클라이언트 라이브러리를 자동으로 가로채(패칭하여) 계측합니다. 애플리케이션 코드는 변경하지 않아도 됩니다. 평소처럼 프로바이더 SDK를 사용하기만 하면, 각 요청이 Weave Call로 기록됩니다. 최소한의 설정으로 전체 트레이싱 기능을 사용할 수 있습니다.

LLM 공급자

LLM 공급자는 예측을 생성할 수 있도록 대규모 언어 모델에 대한 접근을 제공하는 서비스 제공업체입니다. Weave는 이들 공급자와의 인테그레이션을 통해 해당 API와의 상호작용을 로깅하고 추적합니다: Local Models: 자체 인프라에서 모델을 실행하는 경우에 사용합니다.

프레임워크

프레임워크는 AI 애플리케이션에서 실제 실행 파이프라인을 오케스트레이션하는 역할을 합니다. 복잡한 워크플로우를 구축하기 위한 도구와 추상화를 제공합니다. Weave는 전체 파이프라인을 추적하기 위해 이러한 프레임워크와 인테그레이션됩니다:

RL 프레임워크

프로토콜

Weave는 AI 애플리케이션과 이를 지원하는 서비스 간의 통신을 가능하게 하는 표준화된 프로토콜과 통합됩니다. 위 목록에서 인테그레이션을 선택해 선호하는 LLM 제공업체, 프레임워크 또는 프로토콜과 함께 Weave를 사용하는 방법을 자세히 알아보세요. LLM API를 직접 호출하든, 복잡한 파이프라인을 구축하든, 표준화된 프로토콜을 사용하든, Weave는 AI 애플리케이션을 효과적으로 추적하고 분석할 수 있는 도구를 제공합니다.