ローカルモデル
ローカルモデル関数を @weave.op() でラップする
weave.init('<your-project-name>') で Weave を初期化し、そのうえで LLM への呼び出しを weave.op() でラップするだけで、任意の LLM を簡単に Weave に統合できます。詳細については、tracing に関するガイドを参照してください。
ローカルモデルを使用するように OpenAI SDK コードを更新する
openai.OpenAI() を初期化するときの base_url の設定です。
api_key には任意の文字列を設定できますが、必ず上書きしてください。そうしないと、OpenAI が環境変数から api_key を取得しようとしてエラーを表示します。
OpenAI SDK 対応ローカルモデルランナー
- Nomic GPT4All - 設定内の Local Server 経由でサポート(FAQ)
- LMStudio - Local Server の OpenAI SDK サポートに関するドキュメント
- Ollama - OpenAI SDK 向けOpenAI 互換性
- llama-cpp-python Python パッケージ経由の llama.cpp
- llamafile -
http://localhost:8080/v1は、llamafile 実行時に自動的に OpenAI SDK をサポートします