Skip to main content
Vous pouvez utiliser W&B avec Skorch pour journaliser automatiquement le modèle le plus performant, ainsi que toutes les métriques de performance du modèle, sa topologie et les ressources de calcul après chaque époque. Chaque fichier enregistré dans wandb_run.dir est automatiquement journalisé dans W&B. Voir un exemple de run.

Paramètres

ParamètreTypeDescription
wandb_runwandb.wandb_run. Runrun wandb utilisé pour journaliser les données.
save_modelbool (default=True)Indique s’il faut enregistrer un checkpoint du meilleur modèle et le téléverser vers votre Run sur W&B.
keys_ignoredstr or list of str (default=None)Clé ou liste de clés qui ne doivent pas être journalisées dans TensorBoard. Notez qu’en plus des clés fournies par l’utilisateur, les clés commençant par event_ ou se terminant par _best sont ignorées par défaut.

Exemples de code

Nous avons créé quelques exemples pour vous montrer comment l’intégration fonctionne :
# Installer wandb
... pip install wandb

import wandb
from skorch.callbacks import WandbLogger

# Créer un run wandb
wandb_run = wandb.init()

# Journaliser les hyperparamètres (facultatif)
wandb_run.config.update({"learning rate": 1e-3, "batch size": 32})

net = NeuralNet(..., callbacks=[WandbLogger(wandb_run)])
net.fit(X, y)

Référence des méthodes

MéthodeDescription
initialize()(Ré-)initialise l’état initial du callback.
on_batch_begin(net[, X, y, training])Appelée au début de chaque lot.
on_batch_end(net[, X, y, training])Appelée à la fin de chaque lot.
on_epoch_begin(net[, dataset_train, …])Appelée au début de chaque époque.
on_epoch_end(net, **kwargs)Journalise les valeurs de la dernière étape de l’historique et enregistre le meilleur modèle
on_grad_computed(net, named_parameters[, X, …])Appelée une fois par lot, après le calcul des gradients mais avant l’exécution d’une étape de mise à jour.
on_train_begin(net, **kwargs)Journalise la topologie du modèle et ajoute un hook pour les gradients
on_train_end(net[, X, y])Appelée à la fin de l’entraînement.