- Distillation : transférer les connaissances d’un modèle plus grand et plus performant vers un modèle plus petit et plus rapide
- Apprentissage du style et du format de sortie : entraîner un modèle à respecter des formats de réponse, un ton ou une structure spécifiques
- Amorçage avant le RL : préentraîner un modèle avec des exemples supervisés avant d’appliquer l’apprentissage par renforcement pour un affinage plus poussé
Pourquoi Serverless SFT ?
- Coûts d’entraînement réduits : en mutualisant l’infrastructure entre de nombreux utilisateurs, en évitant d’avoir à configurer chaque job et en ramenant vos coûts GPU à 0 lorsque vous n’êtes pas activement en train d’entraîner, Serverless SFT réduit considérablement les coûts d’entraînement.
- Temps d’entraînement plus court : en mettant immédiatement à disposition l’infrastructure d’entraînement lorsque vous en avez besoin, Serverless SFT accélère vos tâches d’entraînement et vous permet d’itérer plus rapidement.
- Déploiement automatique : Serverless SFT déploie automatiquement chaque checkpoint que vous entraînez, ce qui élimine le besoin de configurer manuellement une infrastructure d’hébergement. Les modèles entraînés sont immédiatement accessibles et testables dans des environnements locaux, de préproduction ou de production.
Comment Serverless SFT utilise les services W&B
- Inference : Pour exécuter vos modèles
- Models : Pour suivre les métriques de performances pendant l’entraînement de l’adaptateur LoRA
- Artifacts : Pour stocker et versionner les adaptateurs LoRA
- Weave (facultatif) : Pour avoir de la visibilité sur la manière dont le modèle répond à chaque étape de la boucle d’entraînement