Computer Vision Final Project
git clone https://github.com/facebookresearch/mae.git
Pretrained ViT Base Model
공식 Github Repo에서 모델 다운로드: https://dl.fbaipublicfiles.com/mae/finetune/mae_finetuned_vit_base.pth
실행 파일들과 같은 경로에 둠
Huggingface api 활용을 위해 token 발급
.env 파일 생성 후 TOKEN, DATA_PATH 변수 설정
process_data.py 실행
DATA_PATH의 폴더명 'validation'을 'vali'로 변경
Extra Analysis
OMP_NUM_THREADS=1 torchrun --nproc_per_node=2 main_linprobe.py \
--batch_size 512 \
--model vit_base_patch16 --cls_token \
--finetune ${PRETRAIN_CHKPT} \
--epochs 90 \
--blr 0.1 \
--weight_decay 0.0 \
--dist_eval --data_path ${IMAGENET_DIR} \
--num_workers 32 \
--output_dir ./output_linprobe_linear \
--log_dir ./output_dir_linear \
--head_type linear
OMP_NUM_THREADS=1 torchrun --nproc_per_node=2 main_linprobe.py \
--batch_size 512 \
--model vit_base_patch16 --cls_token \
--finetune ${PRETRAIN_CHKPT} \
--epochs 90 \
--blr 0.1 \
--weight_decay 0.0 \
--dist_eval --data_path ${IMAGENET_DIR} \
--num_workers 32 \
--output_dir ./output_linprobe_mlp \
--log_dir ./output_dir_mlp \
--head_type mlp
Linear Probing Transformer Block ver.
OMP_NUM_THREADS=1 torchrun --nproc_per_node=2 main_linprobe.py \
--batch_size 512 \
--model vit_base_patch16 --cls_token \
--finetune ${PRETRAIN_CHKPT} \
--epochs 90 \
--blr 0.1 \
--weight_decay 0.0 \
--dist_eval --data_path ${IMAGENET_DIR} \
--num_workers 32 \
--output_dir ./output_linprobe_tf \
--log_dir ./output_dir_tf \
--head_type transformer