train.sh 738 B

1234567891011121314151617181920212223242526272829303132
  1. #!/usr/bin/env bash
  2. set -x
  3. set -e
  4. DIR="$( cd "$( dirname "$0" )" && cd .. && pwd )"
  5. OUTPUT_DIR="${DIR}/checkpoint/v3/$(date +%F-%H)"
  6. DATA_DIR="${DIR}/ReadingBank/"
  7. mkdir -p "${OUTPUT_DIR}"
  8. deepspeed train.py \
  9. --model_dir 'microsoft/layoutlmv3-large' \
  10. --dataset_dir "${DATA_DIR}" \
  11. --dataloader_num_workers 1 \
  12. --deepspeed ds_config.json \
  13. --per_device_train_batch_size 32 \
  14. --per_device_eval_batch_size 64 \
  15. --do_train \
  16. --do_eval \
  17. --logging_steps 100 \
  18. --bf16 \
  19. --seed 42 \
  20. --num_train_epochs 10 \
  21. --learning_rate 5e-5 \
  22. --warmup_steps 1000 \
  23. --save_strategy epoch \
  24. --evaluation_strategy epoch \
  25. --remove_unused_columns False \
  26. --output_dir "${OUTPUT_DIR}" \
  27. --overwrite_output_dir \
  28. "$@"