Modèles locaux
Décorez les fonctions de modèle local avec @weave.op()
weave.init('<your-project-name>'), puis en encapsulant les appels à vos LLM avec weave.op(). Voir notre guide sur le Tracing pour plus de détails.
Mise à jour de votre code OpenAI SDK pour utiliser des modèles locaux
base_url lors de l’initialisation de openai.OpenAI().
api_key peut être n’importe quelle chaîne, mais il doit être redéfini, sinon OpenAI essaiera de l’utiliser à partir des variables d’environnement et affichera une erreur.
Outils d’exécution de modèles locaux compatibles avec le SDK OpenAI
- Nomic GPT4All - prise en charge via Local Server dans les paramètres (FAQ)
- LMStudio - prise en charge du SDK OpenAI via Local Server docs
- Ollama - compatibilité OpenAI pour le SDK OpenAI
- llama.cpp via le package Python llama-cpp-python
- llamafile -
http://localhost:8080/v1prend automatiquement en charge le SDK OpenAI lors de l’exécution de Llamafile