Skip to main content
W&B를 Skorch와 함께 사용하면 각 에포크 후 최고 성능의 모델은 물론, 모든 모델 성능 메트릭, 모델 토폴로지, 컴퓨팅 리소스도 자동으로 로깅할 수 있습니다. wandb_run.dir에 저장된 모든 파일은 자동으로 W&B에 로깅됩니다. example run을 참조하세요.

매개변수

매개변수유형설명
wandb_runwandb.wandb_run. Run데이터 로깅에 사용되는 wandb run입니다.
save_modelbool (default=True)최고 성능 모델의 체크포인트를 저장하고 W&B의 run에 업로드할지 여부입니다.
keys_ignoredstr or list of str (default=None)TensorBoard에 로깅하지 않을 키 또는 키 목록입니다. 사용자가 제공한 키 외에도 event_로 시작하거나 _best로 끝나는 키는 기본적으로 무시됩니다.

예제 코드

인테그레이션이 어떻게 작동하는지 확인할 수 있도록 몇 가지 예제를 준비했습니다:
  • Colab: 인테그레이션을 사용해 볼 수 있는 단순한 데모
  • 단계별 가이드: Skorch 모델 성능을 추적하는 방법을 안내합니다
# wandb 설치
... pip install wandb

import wandb
from skorch.callbacks import WandbLogger

# wandb Run 생성
wandb_run = wandb.init()

# 하이퍼파라미터 로그 (선택)
wandb_run.config.update({"learning rate": 1e-3, "batch size": 32})

net = NeuralNet(..., callbacks=[WandbLogger(wandb_run)])
net.fit(X, y)

방법 레퍼런스

방법설명
initialize()콜백의 초기 상태를 (재)설정합니다.
on_batch_begin(net[, X, y, training])각 배치 시작 시 호출됩니다.
on_batch_end(net[, X, y, training])각 배치 종료 시 호출됩니다.
on_epoch_begin(net[, dataset_train, …])각 에포크 시작 시 호출됩니다.
on_epoch_end(net, **kwargs)마지막 이력 step의 값을 로깅하고 최고 성능 모델을 저장합니다
on_grad_computed(net, named_parameters[, X, …])그라디언트가 계산된 후 업데이트 step이 수행되기 전에 각 배치마다 한 번 호출됩니다.
on_train_begin(net, **kwargs)모델 토폴로지를 로깅하고 그라디언트를 위한 hook을 추가합니다
on_train_end(net[, X, y])트레이닝 종료 시 호출됩니다.