Skip to main content
Hugging Face AutoTrain est un outil no-code permettant d’entraîner des modèles de pointe pour des tâches de traitement du langage naturel (NLP), de vision par ordinateur (CV), de parole, et même pour des tâches tabulaires. W&B est directement intégré à Hugging Face AutoTrain et fournit le suivi des expériences ainsi que la gestion de la configuration. Il vous suffit d’utiliser un seul paramètre dans la commande CLI pour vos expériences.
Journalisation des métriques des expériences

Installer les prérequis

Installez autotrain-advanced et wandb.
pip install --upgrade autotrain-advanced wandb
Pour illustrer ces changements, cette page affine un LLM sur un jeu de données de mathématiques afin d’atteindre un résultat SoTA en pass@1 sur les benchmarks GSM8k.

Préparez le jeu de données

Hugging Face AutoTrain exige que votre jeu de données CSV personnalisé respecte un format spécifique pour fonctionner correctement.
  • Votre fichier d’entraînement doit contenir une colonne text, utilisée pour l’entraînement. Pour de meilleurs résultats, les données de la colonne text doivent respecter le format ### Human: Question?### Assistant: Answer.. Consultez un excellent exemple dans timdettmers/openassistant-guanaco. Cependant, le jeu de données MetaMathQA contient les colonnes query, response et type. Commencez par prétraiter ce jeu de données. Supprimez la colonne type et fusionnez le contenu des colonnes query et response dans une nouvelle colonne text, au format ### Human: Query?### Assistant: Response.. Le jeu de données obtenu, rishiraj/guanaco-style-metamath, est ensuite utilisé pour l’entraînement.

Entraîner avec autotrain

Vous pouvez démarrer l’entraînement avec autotrain advanced depuis la ligne de commande ou un notebook. Utilisez l’argument --log, ou --log wandb pour enregistrer vos résultats dans un Run W&B.
autotrain llm \
    --train \
    --model HuggingFaceH4/zephyr-7b-alpha \
    --project-name zephyr-math \
    --log wandb \
    --data-path data/ \
    --text-column text \
    --lr 2e-5 \
    --batch-size 4 \
    --epochs 3 \
    --block-size 1024 \
    --warmup-ratio 0.03 \
    --lora-r 16 \
    --lora-alpha 32 \
    --lora-dropout 0.05 \
    --weight-decay 0.0 \
    --gradient-accumulation 4 \
    --logging_steps 10 \
    --fp16 \
    --use-peft \
    --use-int4 \
    --merge-adapter \
    --push-to-hub \
    --token <huggingface-token> \
    --repo-id <huggingface-repository-address>
Sauvegarde de la configuration de l’expérience

Autres ressources