Skip to main content
La bibliothèque wandb inclut un callback spécial pour LightGBM. Il est également facile d’utiliser les fonctionnalités de journalisation génériques de W&B pour suivre des expériences à grande échelle, comme les Sweeps d’hyperparamètres.
from wandb.integration.lightgbm import wandb_callback, log_summary
import lightgbm as lgb

# Consigner des métriques dans W&B
gbm = lgb.train(..., callbacks=[wandb_callback()])

# Consigner le graphique d'importance des variables et téléverser le point de contrôle du modèle dans W&B
log_summary(gbm, save_model_checkpoint=True)
Vous cherchez des exemples de code prêts à l’emploi ? Consultez notre dépôt d’exemples sur GitHub.

Ajustez vos hyperparamètres avec Sweeps

Pour tirer le maximum de performances des modèles, vous devez ajuster les hyperparamètres, comme la profondeur des arbres et le taux d’apprentissage. W&B Sweeps est une boîte à outils puissante pour configurer, orchestrer et analyser de vastes expériences d’hyperparamétrage. Pour en savoir plus sur ces outils et voir un exemple d’utilisation de Sweeps avec XGBoost, consultez ce notebook Colab interactif.
Comparaison des performances de LightGBM