WandbCallback. Consultez cette documentation interactive avec exemples pour plus de détails.
Inscrivez-vous et créez une clé API
Pour une méthode plus directe, créez une clé API en accédant directement aux Paramètres utilisateur. Copiez immédiatement la clé API nouvellement créée et conservez-la dans un endroit sûr, par exemple dans un gestionnaire de mots de passe.
- Cliquez sur l’icône de votre profil utilisateur dans le coin supérieur droit.
- Sélectionnez Paramètres utilisateur, puis faites défiler jusqu’à la section Clés API.
Installez la bibliothèque wandb et connectez-vous
wandb et vous connecter :
- Ligne de commande
- Python
- Python notebook
-
Définissez la variable d’environnement
WANDB_API_KEYsur votre clé API. -
Installez la bibliothèque
wandb, puis connectez-vous.
Ajoutez le WandbCallback au learner ou à la méthode fit
Si vous utilisez la version 1 de Fastai, consultez la documentation Fastai v1.
Arguments de WandbCallback
WandbCallback accepte les arguments suivants :
| Args | Description |
|---|---|
| log | Indique s’il faut journaliser les gradients, les parameters, all ou None du modèle (par défaut). Les pertes et les métriques sont toujours journalisées. |
| log_preds | indique si vous souhaitez journaliser des échantillons de prédictions (par défaut : True). |
| log_preds_every_epoch | indique s’il faut journaliser les prédictions à chaque époque ou seulement à la fin (par défaut : False) |
| log_model | indique si vous souhaitez journaliser votre modèle (par défaut : False). Cela nécessite également SaveModelCallback |
| model_name | Le nom du file à journaliser, remplace SaveModelCallback |
| log_dataset |
Remarque : le sous-dossier “models” est toujours ignoré. |
| dataset_name | nom du jeu de données journalisé (par défaut : nom du dossier). |
| valid_dl | DataLoaders contenant les éléments utilisés pour les échantillons de prédictions (par défaut : des éléments aléatoires de learn.dls.valid. |
| n_preds | nombre de prédictions journalisées (36 par défaut). |
| seed | utilisé pour définir les échantillons aléatoires. |
log_dataset(path, name=None, metadata={})log_model(path, name=None, metadata={})
Entraînement distribué
fastai prend en charge l’entraînement distribué à l’aide du gestionnaire de contexte distrib_ctx. W&B le prend automatiquement en charge et vous permet de suivre vos expériences multi-GPU sans configuration supplémentaire.
Voici un exemple minimal :
- Script
- Python notebook
Journalisez uniquement depuis le processus principal
wandb lance un run par processus. À la fin de l’entraînement, vous aurez donc deux runs. Cela peut parfois prêter à confusion, et vous pouvez vouloir journaliser uniquement depuis le processus principal. Pour ce faire, vous devez déterminer manuellement dans quel processus vous vous trouvez et éviter de créer des runs (en appelant wandb.init dans tous les autres processus).
- Script
- Python notebook
Exemples
- Visualiser, suivre et comparer des modèles Fastai : Un guide pas à pas très détaillé.
- Segmentation d’images sur CamVid : Un exemple d’utilisation de l’intégration.