로컬 모델
로컬 모델 함수를 @weave.op()으로 감싸기
weave.init('<your-project-name>')로 Weave를 초기화한 다음 LLM 호출을 weave.op()으로 감싸기만 하면, 어떤 LLM이든 직접 Weave와 손쉽게 통합할 수 있습니다. 자세한 내용은 tracing 가이드를 참고하세요.
OpenAI SDK 코드를 로컬 모델을 사용하도록 업데이트하기
openai.OpenAI()를 초기화할 때 base_url을 변경하는 것입니다.
api_key에는 아무 문자열이나 넣어도 되지만, 반드시 직접 지정해야 합니다. 그렇지 않으면 OpenAI가 환경 변수에서 키를 가져오려고 시도해 오류가 발생합니다.
OpenAI SDK를 지원하는 로컬 모델 러너
- Nomic GPT4All - 설정에서 Local Server를 통해 지원 (FAQ)
- LMStudio - Local Server OpenAI SDK 지원 문서
- Ollama - OpenAI SDK에 대한 OpenAI 호환성
- llama-cpp-python Python 패키지를 통한 llama.cpp
- llamafile -
http://localhost:8080/v1는 Llamafile 실행 시 OpenAI SDK를 자동으로 지원합니다