-
Notifications
You must be signed in to change notification settings - Fork 21
/
Makefile
221 lines (205 loc) · 8.24 KB
/
Makefile
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
pretrain_mae_vit_base_patch16_dec512d2b_224_200e:
python -m torch.distributed.launch --nproc_per_node=8 main_pretrain.py \
--batch_size 128 \
--accum_iter 4 \
--model mae_vit_base_patch16_dec512d2b \
--token_size 14 \
--norm_pix_loss \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_200e \
--output_dir ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_200e
pretrain_mae_vit_base_patch16_dec512d2b_224_mask_vmr025_200e:
python -m torch.distributed.launch --nproc_per_node=8 main_pretrain.py \
--batch_size 128 \
--accum_iter 4 \
--model mae_vit_base_patch16_dec512d2b \
--mask_regular \
--vis_mask_ratio 0.25 \
--token_size 14 \
--norm_pix_loss \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_mask_vmr025_200e \
--output_dir ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_mask_vmr025_200e \
pretrain_mae_swin_tiny_256_mask_vmr025_200e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_pretrain.py \
--batch_size 128 \
--accum_iter 4 \
--model mae_swin_tiny_256 \
--mask_regular \
--vis_mask_ratio 0.25 \
--input_size 256 \
--token_size 16 \
--norm_pix_loss \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_mae_swin_tiny_256_mask_vmr025_200e \
--output_dir ./work_dirs/pretrain_mae_swin_tiny_256_mask_vmr025_200e
pretrain_simmim_swin_tiny_256_200e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_pretrain.py \
--batch_size 64 \
--accum_iter 8 \
--model simmim_swin_tiny_256 \
--input_size 256 \
--token_size 16 \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_simmim_swin_tiny_256_200e \
--output_dir ./work_dirs/pretrain_simmim_swin_tiny_256_200e
pretrain_mae_pvt_small_256_mask_vmr025_200e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_pretrain.py \
--batch_size 128 \
--accum_iter 4 \
--model mae_pvt_small_256 \
--mask_regular \
--vis_mask_ratio 0.25 \
--input_size 256 \
--token_size 16 \
--norm_pix_loss \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_mae_pvt_small_256_mask_vmr025_200e \
--output_dir ./work_dirs/pretrain_mae_pvt_small_256_mask_vmr025_200e
pretrain_simmim_pvt_small_256_200e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29501 main_pretrain.py \
--batch_size 128 \
--accum_iter 4 \
--model simmim_pvt_small_256 \
--input_size 256 \
--token_size 16 \
--mask_ratio 0.75 \
--epochs 200 \
--warmup_epochs 10 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_simmim_pvt_small_256_200e \
--output_dir ./work_dirs/pretrain_simmim_pvt_small_256_200e
pretrain_mae_swin_large_256_mask_vmr025_800e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29501 main_pretrain.py \
--batch_size 64 \
--accum_iter 8 \
--model mae_swin_large_256 \
--mask_regular \
--vis_mask_ratio 0.25 \
--input_size 256 \
--token_size 16 \
--norm_pix_loss \
--mask_ratio 0.75 \
--epochs 800 \
--warmup_epochs 40 \
--blr 1.5e-4 \
--weight_decay 0.05 \
--data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/pretrain_mae_swin_large_256_mask_vmr025_800e \
--output_dir ./work_dirs/pretrain_mae_swin_large_256_mask_vmr025_800e
finetune_mae_vit_base_patch16_dec512d2b_mask_vmr025_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 main_finetune.py \
--batch_size 64 \
--accum_iter 2 \
--model vit_base_patch16 \
--finetune ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_mask_vmr025_200e//checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.8 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_mae_vit_base_patch16_dec512d2b_mask_vmr025_200e_100e \
--output_dir ./work_dirs/finetune_mae_vit_base_patch16_dec512d2b_mask_vmr025_200e_100e
finetune_mae_vit_base_patch16_dec512d2b_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 main_finetune.py \
--batch_size 64 \
--accum_iter 2 \
--model vit_base_patch16 \
--finetune ./work_dirs/pretrain_mae_vit_base_patch16_dec512d2b_224_200e//checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.8 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_mae_vit_base_patch16_dec512d2b_200e_100e \
--output_dir ./work_dirs/finetune_mae_vit_base_patch16_dec512d2b_200e_100e
finetune_mae_swin_tiny_256_mask_vmr025_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_finetune.py \
--input_size 256 \
--batch_size 64 \
--accum_iter 2 \
--model swin_tiny_256 \
--finetune ./work_dirs/pretrain_mae_swin_tiny_256_mask_vmr025_200e//checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.85 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_mae_swin_tiny_256_mask_vmr025_200e_100e \
--output_dir ./work_dirs/finetune_mae_swin_tiny_256_mask_vmr025_200e_100e
finetune_mae_pvt_small_256_mask_vmr025_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_finetune.py \
--input_size 256 \
--batch_size 64 \
--accum_iter 2 \
--model pvt_small_256 \
--finetune ./work_dirs/pretrain_mae_pvt_small_256_mask_vmr025_200e//checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.85 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_mae_pvt_small_256_mask_vmr025_200e_100e \
--output_dir ./work_dirs/finetune_mae_pvt_small_256_mask_vmr025_200e_100e
finetune_simmim_pvt_small_256_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 main_finetune.py \
--input_size 256 \
--batch_size 64 \
--accum_iter 2 \
--model pvt_small_256 \
--finetune ./work_dirs/pretrain_simmim_pvt_small_256_200e/checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.85 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_simmim_pvt_small_256_200e_100e \
--output_dir ./work_dirs/finetune_simmim_pvt_small_256_200e_100e
finetune_simmim_swin_tiny_256_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 main_finetune.py \
--input_size 256 \
--batch_size 64 \
--accum_iter 2 \
--model swin_tiny_256 \
--finetune ./work_dirs/pretrain_simmim_swin_tiny_256_200e/checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.85 \
--weight_decay 0.05 --drop_path 0.1 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_simmim_swin_tiny_256_200e_100e \
--output_dir ./work_dirs/finetune_simmim_swin_tiny_256_200e_100e
finetune_mae_swin_large_256_mask_vmr025_200e_100e:
python -m torch.distributed.launch --nproc_per_node=8 --master_port 29502 main_finetune.py \
--input_size 256 \
--batch_size 32 \
--accum_iter 4 \
--model swin_large_256 \
--finetune ./work_dirs/pretrain_mae_swin_large_256_mask_vmr025_200e//checkpoint-199.pth \
--epochs 100 \
--blr 5e-4 --layer_decay 0.7 \
--weight_decay 0.05 --drop_path 0.2 --reprob 0.25 --mixup 0.8 --cutmix 1.0 \
--dist_eval --data_path /path/to/ImageNet/ \
--log_dir ./work_dirs/finetune_mae_swin_large_256_mask_vmr025_200e_100e \
--output_dir ./work_dirs/finetune_mae_swin_large_256_mask_vmr025_200e_100e