메인 콘텐츠로 건너뛰기
W&B Inference는 여러 오픈 소스 파운데이션 모델에 대한 접근을 제공합니다. 각 모델은 서로 다른 강점과 활용 사례를 가지고 있습니다.

모델 카탈로그

모델모델 ID (API용)유형컨텍스트 윈도우파라미터설명
DeepSeek V3.1deepseek-ai/DeepSeek-V3.1텍스트161K37B-671B (활성-전체)프롬프트 템플릿을 통해 사고 모드와 비사고 모드를 모두 지원하는 대규모 하이브리드 모델입니다.
Meta Llama 4 Scoutmeta-llama/Llama-4-Scout-17B-16E-Instruct텍스트, 비전64K17B-109B (활성-전체)텍스트와 이미지 이해를 통합한 멀티모달 모델로, 시각적 작업과 복합 분석에 적합합니다.
Meta Llama 3.3 70Bmeta-llama/Llama-3.3-70B-Instruct텍스트128K70B (전체)대화형 작업, 상세 지시 수행 및 코딩에 뛰어난 다국어 모델입니다.
Meta Llama 3.1 70Bmeta-llama/Llama-3.1-70B-Instruct텍스트128K70B (전체)반응성이 뛰어난 다국어 챗봇 상호작용을 위해 최적화된 효율적인 대화형 모델입니다.
Meta Llama 3.1 8Bmeta-llama/Llama-3.1-8B-Instruct텍스트128K8B (전체)반응성이 뛰어난 다국어 챗봇 상호작용을 위해 최적화된 효율적인 대화형 모델입니다.
Microsoft Phi 4 Mini 3.8Bmicrosoft/Phi-4-mini-instruct텍스트128K3.8B (전체)리소스가 제한된 환경에서 빠른 응답에 적합한 경량·고효율 모델입니다.
MiniMax M2.5MiniMaxAI/MiniMax-M2.5텍스트197K10B-230B (활성-전체)고도로 희소한 아키텍처를 사용한 MoE(전문가 혼합) 모델로, 높은 처리량과 낮은 지연 시간, 뛰어난 코딩 성능을 위해 설계되었습니다.
Moonshot AI Kimi K2.5moonshotai/Kimi-K2.5텍스트, 비전262K32B-1T (활성-전체)Kimi K2.5는 활성 파라미터 320억 개와 전체 1조 개 파라미터를 갖춘 멀티모달 전문가 혼합(Mixture-of-Experts) 언어 모델입니다.
OpenAI GPT OSS 120Bopenai/gpt-oss-120b텍스트131K5.1B-117B (Active-Total)고급 수준의 추론, 에이전트형 작업, 범용 사용 사례를 위해 설계된 효율적인 전문가 혼합(Mixture-of-Experts) 모델입니다.
OpenAI GPT OSS 20Bopenai/gpt-oss-20b텍스트131K3.6B-20B (Active-Total)낮은 지연 시간을 제공하며, OpenAI의 Harmony 응답 형식으로 학습되어 추론 능력을 갖춘 전문가 혼합(Mixture-of-Experts) 모델입니다.
OpenPipe Qwen3 14B InstructOpenPipe/Qwen3-14B-Instruct텍스트32.8K14.8B (Total)다국어를 지원하는 효율적인 조밀한(dense) 구조의 지시 기반 미세 조정 모델로, OpenPipe에서 파인튜닝을 통한 에이전트 구축에 최적화된 모델입니다.
Qwen3 235B A22B Thinking-2507Qwen/Qwen3-235B-A22B-Thinking-2507텍스트262K22B-235B (Active-Total)구조화된 추론, 수학, 장문 생성에 최적화된 고성능 전문가 혼합(Mixture-of-Experts) 모델입니다.
Qwen3 235B A22B-2507Qwen/Qwen3-235B-A22B-Instruct-2507텍스트262K22B-235B (Active-Total)논리적 추론에 최적화된 효율적인 다국어 지원 전문가 혼합(Mixture-of-Experts) 지시 기반 미세 조정 모델입니다.
Qwen3 30B A3BQwen/Qwen3-30B-A3B-Instruct-2507텍스트262K3.3B-30.5B (Active-Total)Qwen3-30B-A3B-Instruct-2507은 향상된 추론, 코딩, 긴 컨텍스트 이해 능력을 갖춘 305억 파라미터 규모의 MoE(전문가 혼합) 지시 기반 미세 조정 모델입니다.
Qwen3 Coder 480B A35BQwen/Qwen3-Coder-480B-A35B-Instruct텍스트262K35B-480B (Active-Total)함수 호출, 도구 사용, 긴 컨텍스트 추론과 같은 에이전트 기반 코딩 작업에 최적화된 전문가 혼합(Mixture-of-Experts) 모델입니다.
Z.AI GLM 5zai-org/GLM-5-FP8텍스트200K40B-744B (Active-Total)추론과 코딩에서 강력한 성능을 발휘하는, 장기 실행 에이전트형 작업에 최적화된 Mixture-of-Experts 모델입니다.

모델 ID 사용하기

API를 사용할 때는 위 표의 Model ID로 사용할 모델을 지정하세요. 예를 들어:
response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[...]
)

다음 단계