I followed the README file to evaluate semantic segmentation, with the command below:
Loaded Segmenter mit_b1, ImageNet-Pre-Trained=True, #PARAMS=14.96M
Traceback (most recent call last):
File "main.py", line 459, in <module>
main()
File "main.py", line 382, in main
best_val, epoch_start = load_ckpt(args.resume, {'segmenter': segmenter})
File "main.py", line 211, in load_ckpt
v.load_state_dict(ckpt[k])
File "/home/kb/anaconda3/envs/tokenfusion/lib/python3.7/site-packages/torch/nn/modules/module.py", line 1605, in load_state_dict
self.__class__.__name__, "\n\t".join(error_msgs)))
RuntimeError: Error(s) in loading state_dict for DataParallel:
Unexpected key(s) in state_dict: "module.encoder.block1.2.norm1.ln_0.weight", "module.encoder.block1.2.norm1.ln_0.bias", "module.encoder.block1.2.norm1.ln_1.weight", "module.encoder.block1.2.norm1.ln_1.bias", "module.encoder.block1.2.attn.q.module.weight", "module.encoder.block1.2.attn.q.module.bias", "module.encoder.block1.2.attn.kv.module.weight", "module.encoder.block1.2.attn.kv.module.bias", "module.encoder.block1.2.attn.proj.module.weight", "module.encoder.block1.2.attn.proj.module.bias", "module.encoder.block1.2.attn.sr.module.weight", "module.encoder.block1.2.attn.sr.module.bias", "module.encoder.block1.2.attn.norm.ln_0.weight", "module.encoder.block1.2.attn.norm.ln_0.bias", "module.encoder.block1.2.attn.norm.ln_1.weight", "module.encoder.block1.2.attn.norm.ln_1.bias", "module.encoder.block1.2.norm2.ln_0.weight", "module.encoder.block1.2.norm2.ln_0.bias", "module.encoder.block1.2.norm2.ln_1.weight", "module.encoder.block1.2.norm2.ln_1.bias", "module.encoder.block1.2.mlp.fc1.module.weight", "module.encoder.block1.2.mlp.fc1.module.bias", "module.encoder.block1.2.mlp.dwconv.dwconv.weight", "module.encoder.block1.2.mlp.dwconv.dwconv.bias", "module.encoder.block1.2.mlp.fc2.module.weight", "module.encoder.block1.2.mlp.fc2.module.bias", "module.encoder.block2.2.norm1.ln_0.weight", "module.encoder.block2.2.norm1.ln_0.bias", "module.encoder.block2.2.norm1.ln_1.weight", "module.encoder.block2.2.norm1.ln_1.bias", "module.encoder.block2.2.attn.q.module.weight", "module.encoder.block2.2.attn.q.module.bias", "module.encoder.block2.2.attn.kv.module.weight", "module.encoder.block2.2.attn.kv.module.bias", "module.encoder.block2.2.attn.proj.module.weight", "module.encoder.block2.2.attn.proj.module.bias", "module.encoder.block2.2.attn.sr.module.weight", "module.encoder.block2.2.attn.sr.module.bias", "module.encoder.block2.2.attn.norm.ln_0.weight", "module.encoder.block2.2.attn.norm.ln_0.bias", "module.encoder.block2.2.attn.norm.ln_1.weight", "module.encoder.block2.2.attn.norm.ln_1.bias", "module.encoder.block2.2.norm2.ln_0.weight", "module.encoder.block2.2.norm2.ln_0.bias", "module.encoder.block2.2.norm2.ln_1.weight", "module.encoder.block2.2.norm2.ln_1.bias", "module.encoder.block2.2.mlp.fc1.module.weight", "module.encoder.block2.2.mlp.fc1.module.bias", "module.encoder.block2.2.mlp.dwconv.dwconv.weight", "module.encoder.block2.2.mlp.dwconv.dwconv.bias", "module.encoder.block2.2.mlp.fc2.module.weight", "module.encoder.block2.2.mlp.fc2.module.bias", "module.encoder.block2.3.norm1.ln_0.weight", "module.encoder.block2.3.norm1.ln_0.bias", "module.encoder.block2.3.norm1.ln_1.weight", "module.encoder.block2.3.norm1.ln_1.bias", "module.encoder.block2.3.attn.q.module.weight", "module.encoder.block2.3.attn.q.module.bias", "module.encoder.block2.3.attn.kv.module.weight", "module.encoder.block2.3.attn.kv.module.bias", "module.encoder.block2.3.attn.proj.module.weight", "module.encoder.block2.3.attn.proj.module.bias", "module.encoder.block2.3.attn.sr.module.weight", "module.encoder.block2.3.attn.sr.module.bias", "module.encoder.block2.3.attn.norm.ln_0.weight", "module.encoder.block2.3.attn.norm.ln_0.bias", "module.encoder.block2.3.attn.norm.ln_1.weight", "module.encoder.block2.3.attn.norm.ln_1.bias", "module.encoder.block2.3.norm2.ln_0.weight", "module.encoder.block2.3.norm2.ln_0.bias", "module.encoder.block2.3.norm2.ln_1.weight", "module.encoder.block2.3.norm2.ln_1.bias", "module.encoder.block2.3.mlp.fc1.module.weight", "module.encoder.block2.3.mlp.fc1.module.bias", "module.encoder.block2.3.mlp.dwconv.dwconv.weight", "module.encoder.block2.3.mlp.dwconv.dwconv.bias", "module.encoder.block2.3.mlp.fc2.module.weight", "module.encoder.block2.3.mlp.fc2.module.bias", "module.encoder.block3.2.norm1.ln_0.weight", "module.encoder.block3.2.norm1.ln_0.bias", "module.encoder.block3.2.norm1.ln_1.weight", "module.encoder.block3.2.norm1.ln_1.bias", "module.encoder.block3.2.attn.q.module.weight", "module.encoder.block3.2.attn.q.module.bias", "module.encoder.block3.2.attn.kv.module.weight", "module.encoder.block3.2.attn.kv.module.bias", "module.encoder.block3.2.attn.proj.module.weight", "module.encoder.block3.2.attn.proj.module.bias", "module.encoder.block3.2.attn.sr.module.weight", "module.encoder.block3.2.attn.sr.module.bias", "module.encoder.block3.2.attn.norm.ln_0.weight", "module.encoder.block3.2.attn.norm.ln_0.bias", "module.encoder.block3.2.attn.norm.ln_1.weight", "module.encoder.block3.2.attn.norm.ln_1.bias", "module.encoder.block3.2.norm2.ln_0.weight", "module.encoder.block3.2.norm2.ln_0.bias", "module.encoder.block3.2.norm2.ln_1.weight", "module.encoder.block3.2.norm2.ln_1.bias", "module.encoder.block3.2.mlp.fc1.module.weight", "module.encoder.block3.2.mlp.fc1.module.bias", "module.encoder.block3.2.mlp.dwconv.dwconv.weight", "module.encoder.block3.2.mlp.dwconv.dwconv.bias", "module.encoder.block3.2.mlp.fc2.module.weight", "module.encoder.block3.2.mlp.fc2.module.bias", "module.encoder.block3.3.norm1.ln_0.weight", "module.encoder.block3.3.norm1.ln_0.bias", "module.encoder.block3.3.norm1.ln_1.weight", "module.encoder.block3.3.norm1.ln_1.bias", "module.encoder.block3.3.attn.q.module.weight", "module.encoder.block3.3.attn.q.module.bias", "module.encoder.block3.3.attn.kv.module.weight", "module.encoder.block3.3.attn.kv.module.bias", "module.encoder.block3.3.attn.proj.module.weight", "module.encoder.block3.3.attn.proj.module.bias", "module.encoder.block3.3.attn.sr.module.weight", "module.encoder.block3.3.attn.sr.module.bias", "module.encoder.block3.3.attn.norm.ln_0.weight", "module.encoder.block3.3.attn.norm.ln_0.bias", "module.encoder.block3.3.attn.norm.ln_1.weight", "module.encoder.block3.3.attn.norm.ln_1.bias", "module.encoder.block3.3.norm2.ln_0.weight", "module.encoder.block3.3.norm2.ln_0.bias", "module.encoder.block3.3.norm2.ln_1.weight", "module.encoder.block3.3.norm2.ln_1.bias", "module.encoder.block3.3.mlp.fc1.module.weight", "module.encoder.block3.3.mlp.fc1.module.bias", "module.encoder.block3.3.mlp.dwconv.dwconv.weight", "module.encoder.block3.3.mlp.dwconv.dwconv.bias", "module.encoder.block3.3.mlp.fc2.module.weight", "module.encoder.block3.3.mlp.fc2.module.bias", "module.encoder.block3.4.norm1.ln_0.weight", "module.encoder.block3.4.norm1.ln_0.bias", "module.encoder.block3.4.norm1.ln_1.weight", "module.encoder.block3.4.norm1.ln_1.bias", "module.encoder.block3.4.attn.q.module.weight", "module.encoder.block3.4.attn.q.module.bias", "module.encoder.block3.4.attn.kv.module.weight", "module.encoder.block3.4.attn.kv.module.bias", "module.encoder.block3.4.attn.proj.module.weight", "module.encoder.block3.4.attn.proj.module.bias", "module.encoder.block3.4.attn.sr.module.weight", "module.encoder.block3.4.attn.sr.module.bias", "module.encoder.block3.4.attn.norm.ln_0.weight", "module.encoder.block3.4.attn.norm.ln_0.bias", "module.encoder.block3.4.attn.norm.ln_1.weight", "module.encoder.block3.4.attn.norm.ln_1.bias", "module.encoder.block3.4.norm2.ln_0.weight", "module.encoder.block3.4.norm2.ln_0.bias", "module.encoder.block3.4.norm2.ln_1.weight", "module.encoder.block3.4.norm2.ln_1.bias", "module.encoder.block3.4.mlp.fc1.module.weight", "module.encoder.block3.4.mlp.fc1.module.bias", "module.encoder.block3.4.mlp.dwconv.dwconv.weight", "module.encoder.block3.4.mlp.dwconv.dwconv.bias", "module.encoder.block3.4.mlp.fc2.module.weight", "module.encoder.block3.4.mlp.fc2.module.bias", "module.encoder.block3.5.norm1.ln_0.weight", "module.encoder.block3.5.norm1.ln_0.bias", "module.encoder.block3.5.norm1.ln_1.weight", "module.encoder.block3.5.norm1.ln_1.bias", "module.encoder.block3.5.attn.q.module.weight", "module.encoder.block3.5.attn.q.module.bias", "module.encoder.block3.5.attn.kv.module.weight", "module.encoder.block3.5.attn.kv.module.bias", "module.encoder.block3.5.attn.proj.module.weight", "module.encoder.block3.5.attn.proj.module.bias", "module.encoder.block3.5.attn.sr.module.weight", "module.encoder.block3.5.attn.sr.module.bias", "module.encoder.block3.5.attn.norm.ln_0.weight", "module.encoder.block3.5.attn.norm.ln_0.bias", "module.encoder.block3.5.attn.norm.ln_1.weight", "module.encoder.block3.5.attn.norm.ln_1.bias", "module.encoder.block3.5.norm2.ln_0.weight", "module.encoder.block3.5.norm2.ln_0.bias", "module.encoder.block3.5.norm2.ln_1.weight", "module.encoder.block3.5.norm2.ln_1.bias", "module.encoder.block3.5.mlp.fc1.module.weight", "module.encoder.block3.5.mlp.fc1.module.bias", "module.encoder.block3.5.mlp.dwconv.dwconv.weight", "module.encoder.block3.5.mlp.dwconv.dwconv.bias", "module.encoder.block3.5.mlp.fc2.module.weight", "module.encoder.block3.5.mlp.fc2.module.bias", "module.encoder.block3.6.norm1.ln_0.weight", "module.encoder.block3.6.norm1.ln_0.bias", "module.encoder.block3.6.norm1.ln_1.weight", "module.encoder.block3.6.norm1.ln_1.bias", "module.encoder.block3.6.attn.q.module.weight", "module.encoder.block3.6.attn.q.module.bias", "module.encoder.block3.6.attn.kv.module.weight", "module.encoder.block3.6.attn.kv.module.bias", "module.encoder.block3.6.attn.proj.module.weight", "module.encoder.block3.6.attn.proj.module.bias", "module.encoder.block3.6.attn.sr.module.weight", "module.encoder.block3.6.attn.sr.module.bias", "module.encoder.block3.6.attn.norm.ln_0.weight", "module.encoder.block3.6.attn.norm.ln_0.bias", "module.encoder.block3.6.attn.norm.ln_1.weight", "module.encoder.block3.6.attn.norm.ln_1.bias", "module.encoder.block3.6.norm2.ln_0.weight", "module.encoder.block3.6.norm2.ln_0.bias", "module.encoder.block3.6.norm2.ln_1.weight", "module.encoder.block3.6.norm2.ln_1.bias", "module.encoder.block3.6.mlp.fc1.module.weight", "module.encoder.block3.6.mlp.fc1.module.bias", "module.encoder.block3.6.mlp.dwconv.dwconv.weight", "module.encoder.block3.6.mlp.dwconv.dwconv.bias", "module.encoder.block3.6.mlp.fc2.module.weight", "module.encoder.block3.6.mlp.fc2.module.bias", "module.encoder.block3.7.norm1.ln_0.weight", "module.encoder.block3.7.norm1.ln_0.bias", "module.encoder.block3.7.norm1.ln_1.weight", "module.encoder.block3.7.norm1.ln_1.bias", "module.encoder.block3.7.attn.q.module.weight", "module.encoder.block3.7.attn.q.module.bias", "module.encoder.block3.7.attn.kv.module.weight", "module.encoder.block3.7.attn.kv.module.bias", "module.encoder.block3.7.attn.proj.module.weight", "module.encoder.block3.7.attn.proj.module.bias", "module.encoder.block3.7.attn.sr.module.weight", "module.encoder.block3.7.attn.sr.module.bias", "module.encoder.block3.7.attn.norm.ln_0.weight", "module.encoder.block3.7.attn.norm.ln_0.bias", "module.encoder.block3.7.attn.norm.ln_1.weight", "module.encoder.block3.7.attn.norm.ln_1.bias", "module.encoder.block3.7.norm2.ln_0.weight", "module.encoder.block3.7.norm2.ln_0.bias", "module.encoder.block3.7.norm2.ln_1.weight", "module.encoder.block3.7.norm2.ln_1.bias", "module.encoder.block3.7.mlp.fc1.module.weight", "module.encoder.block3.7.mlp.fc1.module.bias", "module.encoder.block3.7.mlp.dwconv.dwconv.weight", "module.encoder.block3.7.mlp.dwconv.dwconv.bias", "module.encoder.block3.7.mlp.fc2.module.weight", "module.encoder.block3.7.mlp.fc2.module.bias", "module.encoder.block3.8.norm1.ln_0.weight", "module.encoder.block3.8.norm1.ln_0.bias", "module.encoder.block3.8.norm1.ln_1.weight", "module.encoder.block3.8.norm1.ln_1.bias", "module.encoder.block3.8.attn.q.module.weight", "module.encoder.block3.8.attn.q.module.bias", "module.encoder.block3.8.attn.kv.module.weight", "module.encoder.block3.8.attn.kv.module.bias", "module.encoder.block3.8.attn.proj.module.weight", "module.encoder.block3.8.attn.proj.module.bias", "module.encoder.block3.8.attn.sr.module.weight", "module.encoder.block3.8.attn.sr.module.bias", "module.encoder.block3.8.attn.norm.ln_0.weight", "module.encoder.block3.8.attn.norm.ln_0.bias", "module.encoder.block3.8.attn.norm.ln_1.weight", "module.encoder.block3.8.attn.norm.ln_1.bias", "module.encoder.block3.8.norm2.ln_0.weight", "module.encoder.block3.8.norm2.ln_0.bias", "module.encoder.block3.8.norm2.ln_1.weight", "module.encoder.block3.8.norm2.ln_1.bias", "module.encoder.block3.8.mlp.fc1.module.weight", "module.encoder.block3.8.mlp.fc1.module.bias", "module.encoder.block3.8.mlp.dwconv.dwconv.weight", "module.encoder.block3.8.mlp.dwconv.dwconv.bias", "module.encoder.block3.8.mlp.fc2.module.weight", "module.encoder.block3.8.mlp.fc2.module.bias", "module.encoder.block3.9.norm1.ln_0.weight", "module.encoder.block3.9.norm1.ln_0.bias", "module.encoder.block3.9.norm1.ln_1.weight", "module.encoder.block3.9.norm1.ln_1.bias", "module.encoder.block3.9.attn.q.module.weight", "module.encoder.block3.9.attn.q.module.bias", "module.encoder.block3.9.attn.kv.module.weight", "module.encoder.block3.9.attn.kv.module.bias", "module.encoder.block3.9.attn.proj.module.weight", "module.encoder.block3.9.attn.proj.module.bias", "module.encoder.block3.9.attn.sr.module.weight", "module.encoder.block3.9.attn.sr.module.bias", "module.encoder.block3.9.attn.norm.ln_0.weight", "module.encoder.block3.9.attn.norm.ln_0.bias", "module.encoder.block3.9.attn.norm.ln_1.weight", "module.encoder.block3.9.attn.norm.ln_1.bias", "module.encoder.block3.9.norm2.ln_0.weight", "module.encoder.block3.9.norm2.ln_0.bias", "module.encoder.block3.9.norm2.ln_1.weight", "module.encoder.block3.9.norm2.ln_1.bias", "module.encoder.block3.9.mlp.fc1.module.weight", "module.encoder.block3.9.mlp.fc1.module.bias", "module.encoder.block3.9.mlp.dwconv.dwconv.weight", "module.encoder.block3.9.mlp.dwconv.dwconv.bias", "module.encoder.block3.9.mlp.fc2.module.weight", "module.encoder.block3.9.mlp.fc2.module.bias", "module.encoder.block3.10.norm1.ln_0.weight", "module.encoder.block3.10.norm1.ln_0.bias", "module.encoder.block3.10.norm1.ln_1.weight", "module.encoder.block3.10.norm1.ln_1.bias", "module.encoder.block3.10.attn.q.module.weight", "module.encoder.block3.10.attn.q.module.bias", "module.encoder.block3.10.attn.kv.module.weight", "module.encoder.block3.10.attn.kv.module.bias", "module.encoder.block3.10.attn.proj.module.weight", "module.encoder.block3.10.attn.proj.module.bias", "module.encoder.block3.10.attn.sr.module.weight", "module.encoder.block3.10.attn.sr.module.bias", "module.encoder.block3.10.attn.norm.ln_0.weight", "module.encoder.block3.10.attn.norm.ln_0.bias", "module.encoder.block3.10.attn.norm.ln_1.weight", "module.encoder.block3.10.attn.norm.ln_1.bias", "module.encoder.block3.10.norm2.ln_0.weight", "module.encoder.block3.10.norm2.ln_0.bias", "module.encoder.block3.10.norm2.ln_1.weight", "module.encoder.block3.10.norm2.ln_1.bias", "module.encoder.block3.10.mlp.fc1.module.weight", "module.encoder.block3.10.mlp.fc1.module.bias", "module.encoder.block3.10.mlp.dwconv.dwconv.weight", "module.encoder.block3.10.mlp.dwconv.dwconv.bias", "module.encoder.block3.10.mlp.fc2.module.weight", "module.encoder.block3.10.mlp.fc2.module.bias", "module.encoder.block3.11.norm1.ln_0.weight", "module.encoder.block3.11.norm1.ln_0.bias", "module.encoder.block3.11.norm1.ln_1.weight", "module.encoder.block3.11.norm1.ln_1.bias", "module.encoder.block3.11.attn.q.module.weight", "module.encoder.block3.11.attn.q.module.bias", "module.encoder.block3.11.attn.kv.module.weight", "module.encoder.block3.11.attn.kv.module.bias", "module.encoder.block3.11.attn.proj.module.weight", "module.encoder.block3.11.attn.proj.module.bias", "module.encoder.block3.11.attn.sr.module.weight", "module.encoder.block3.11.attn.sr.module.bias", "module.encoder.block3.11.attn.norm.ln_0.weight", "module.encoder.block3.11.attn.norm.ln_0.bias", "module.encoder.block3.11.attn.norm.ln_1.weight", "module.encoder.block3.11.attn.norm.ln_1.bias", "module.encoder.block3.11.norm2.ln_0.weight", "module.encoder.block3.11.norm2.ln_0.bias", "module.encoder.block3.11.norm2.ln_1.weight", "module.encoder.block3.11.norm2.ln_1.bias", "module.encoder.block3.11.mlp.fc1.module.weight", "module.encoder.block3.11.mlp.fc1.module.bias", "module.encoder.block3.11.mlp.dwconv.dwconv.weight", "module.encoder.block3.11.mlp.dwconv.dwconv.bias", "module.encoder.block3.11.mlp.fc2.module.weight", "module.encoder.block3.11.mlp.fc2.module.bias", "module.encoder.block3.12.norm1.ln_0.weight", "module.encoder.block3.12.norm1.ln_0.bias", "module.encoder.block3.12.norm1.ln_1.weight", "module.encoder.block3.12.norm1.ln_1.bias", "module.encoder.block3.12.attn.q.module.weight", "module.encoder.block3.12.attn.q.module.bias", "module.encoder.block3.12.attn.kv.module.weight", "module.encoder.block3.12.attn.kv.module.bias", "module.encoder.block3.12.attn.proj.module.weight", "module.encoder.block3.12.attn.proj.module.bias", "module.encoder.block3.12.attn.sr.module.weight", "module.encoder.block3.12.attn.sr.module.bias", "module.encoder.block3.12.attn.norm.ln_0.weight", "module.encoder.block3.12.attn.norm.ln_0.bias", "module.encoder.block3.12.attn.norm.ln_1.weight", "module.encoder.block3.12.attn.norm.ln_1.bias", "module.encoder.block3.12.norm2.ln_0.weight", "module.encoder.block3.12.norm2.ln_0.bias", "module.encoder.block3.12.norm2.ln_1.weight", "module.encoder.block3.12.norm2.ln_1.bias", "module.encoder.block3.12.mlp.fc1.module.weight", "module.encoder.block3.12.mlp.fc1.module.bias", "module.encoder.block3.12.mlp.dwconv.dwconv.weight", "module.encoder.block3.12.mlp.dwconv.dwconv.bias", "module.encoder.block3.12.mlp.fc2.module.weight", "module.encoder.block3.12.mlp.fc2.module.bias", "module.encoder.block3.13.norm1.ln_0.weight", "module.encoder.block3.13.norm1.ln_0.bias", "module.encoder.block3.13.norm1.ln_1.weight", "module.encoder.block3.13.norm1.ln_1.bias", "module.encoder.block3.13.attn.q.module.weight", "module.encoder.block3.13.attn.q.module.bias", "module.encoder.block3.13.attn.kv.module.weight", "module.encoder.block3.13.attn.kv.module.bias", "module.encoder.block3.13.attn.proj.module.weight", "module.encoder.block3.13.attn.proj.module.bias", "module.encoder.block3.13.attn.sr.module.weight", "module.encoder.block3.13.attn.sr.module.bias", "module.encoder.block3.13.attn.norm.ln_0.weight", "module.encoder.block3.13.attn.norm.ln_0.bias", "module.encoder.block3.13.attn.norm.ln_1.weight", "module.encoder.block3.13.attn.norm.ln_1.bias", "module.encoder.block3.13.norm2.ln_0.weight", "module.encoder.block3.13.norm2.ln_0.bias", "module.encoder.block3.13.norm2.ln_1.weight", "module.encoder.block3.13.norm2.ln_1.bias", "module.encoder.block3.13.mlp.fc1.module.weight", "module.encoder.block3.13.mlp.fc1.module.bias", "module.encoder.block3.13.mlp.dwconv.dwconv.weight", "module.encoder.block3.13.mlp.dwconv.dwconv.bias", "module.encoder.block3.13.mlp.fc2.module.weight", "module.encoder.block3.13.mlp.fc2.module.bias", "module.encoder.block3.14.norm1.ln_0.weight", "module.encoder.block3.14.norm1.ln_0.bias", "module.encoder.block3.14.norm1.ln_1.weight", "module.encoder.block3.14.norm1.ln_1.bias", "module.encoder.block3.14.attn.q.module.weight", "module.encoder.block3.14.attn.q.module.bias", "module.encoder.block3.14.attn.kv.module.weight", "module.encoder.block3.14.attn.kv.module.bias", "module.encoder.block3.14.attn.proj.module.weight", "module.encoder.block3.14.attn.proj.module.bias", "module.encoder.block3.14.attn.sr.module.weight", "module.encoder.block3.14.attn.sr.module.bias", "module.encoder.block3.14.attn.norm.ln_0.weight", "module.encoder.block3.14.attn.norm.ln_0.bias", "module.encoder.block3.14.attn.norm.ln_1.weight", "module.encoder.block3.14.attn.norm.ln_1.bias", "module.encoder.block3.14.norm2.ln_0.weight", "module.encoder.block3.14.norm2.ln_0.bias", "module.encoder.block3.14.norm2.ln_1.weight", "module.encoder.block3.14.norm2.ln_1.bias", "module.encoder.block3.14.mlp.fc1.module.weight", "module.encoder.block3.14.mlp.fc1.module.bias", "module.encoder.block3.14.mlp.dwconv.dwconv.weight", "module.encoder.block3.14.mlp.dwconv.dwconv.bias", "module.encoder.block3.14.mlp.fc2.module.weight", "module.encoder.block3.14.mlp.fc2.module.bias", "module.encoder.block3.15.norm1.ln_0.weight", "module.encoder.block3.15.norm1.ln_0.bias", "module.encoder.block3.15.norm1.ln_1.weight", "module.encoder.block3.15.norm1.ln_1.bias", "module.encoder.block3.15.attn.q.module.weight", "module.encoder.block3.15.attn.q.module.bias", "module.encoder.block3.15.attn.kv.module.weight", "module.encoder.block3.15.attn.kv.module.bias", "module.encoder.block3.15.attn.proj.module.weight", "module.encoder.block3.15.attn.proj.module.bias", "module.encoder.block3.15.attn.sr.module.weight", "module.encoder.block3.15.attn.sr.module.bias", "module.encoder.block3.15.attn.norm.ln_0.weight", "module.encoder.block3.15.attn.norm.ln_0.bias", "module.encoder.block3.15.attn.norm.ln_1.weight", "module.encoder.block3.15.attn.norm.ln_1.bias", "module.encoder.block3.15.norm2.ln_0.weight", "module.encoder.block3.15.norm2.ln_0.bias", "module.encoder.block3.15.norm2.ln_1.weight", "module.encoder.block3.15.norm2.ln_1.bias", "module.encoder.block3.15.mlp.fc1.module.weight", "module.encoder.block3.15.mlp.fc1.module.bias", "module.encoder.block3.15.mlp.dwconv.dwconv.weight", "module.encoder.block3.15.mlp.dwconv.dwconv.bias", "module.encoder.block3.15.mlp.fc2.module.weight", "module.encoder.block3.15.mlp.fc2.module.bias", "module.encoder.block3.16.norm1.ln_0.weight", "module.encoder.block3.16.norm1.ln_0.bias", "module.encoder.block3.16.norm1.ln_1.weight", "module.encoder.block3.16.norm1.ln_1.bias", "module.encoder.block3.16.attn.q.module.weight", "module.encoder.block3.16.attn.q.module.bias", "module.encoder.block3.16.attn.kv.module.weight", "module.encoder.block3.16.attn.kv.module.bias", "module.encoder.block3.16.attn.proj.module.weight", "module.encoder.block3.16.attn.proj.module.bias", "module.encoder.block3.16.attn.sr.module.weight", "module.encoder.block3.16.attn.sr.module.bias", "module.encoder.block3.16.attn.norm.ln_0.weight", "module.encoder.block3.16.attn.norm.ln_0.bias", "module.encoder.block3.16.attn.norm.ln_1.weight", "module.encoder.block3.16.attn.norm.ln_1.bias", "module.encoder.block3.16.norm2.ln_0.weight", "module.encoder.block3.16.norm2.ln_0.bias", "module.encoder.block3.16.norm2.ln_1.weight", "module.encoder.block3.16.norm2.ln_1.bias", "module.encoder.block3.16.mlp.fc1.module.weight", "module.encoder.block3.16.mlp.fc1.module.bias", "module.encoder.block3.16.mlp.dwconv.dwconv.weight", "module.encoder.block3.16.mlp.dwconv.dwconv.bias", "module.encoder.block3.16.mlp.fc2.module.weight", "module.encoder.block3.16.mlp.fc2.module.bias", "module.encoder.block3.17.norm1.ln_0.weight", "module.encoder.block3.17.norm1.ln_0.bias", "module.encoder.block3.17.norm1.ln_1.weight", "module.encoder.block3.17.norm1.ln_1.bias", "module.encoder.block3.17.attn.q.module.weight", "module.encoder.block3.17.attn.q.module.bias", "module.encoder.block3.17.attn.kv.module.weight", "module.encoder.block3.17.attn.kv.module.bias", "module.encoder.block3.17.attn.proj.module.weight", "module.encoder.block3.17.attn.proj.module.bias", "module.encoder.block3.17.attn.sr.module.weight", "module.encoder.block3.17.attn.sr.module.bias", "module.encoder.block3.17.attn.norm.ln_0.weight", "module.encoder.block3.17.attn.norm.ln_0.bias", "module.encoder.block3.17.attn.norm.ln_1.weight", "module.encoder.block3.17.attn.norm.ln_1.bias", "module.encoder.block3.17.norm2.ln_0.weight", "module.encoder.block3.17.norm2.ln_0.bias", "module.encoder.block3.17.norm2.ln_1.weight", "module.encoder.block3.17.norm2.ln_1.bias", "module.encoder.block3.17.mlp.fc1.module.weight", "module.encoder.block3.17.mlp.fc1.module.bias", "module.encoder.block3.17.mlp.dwconv.dwconv.weight", "module.encoder.block3.17.mlp.dwconv.dwconv.bias", "module.encoder.block3.17.mlp.fc2.module.weight", "module.encoder.block3.17.mlp.fc2.module.bias", "module.encoder.block4.2.norm1.ln_0.weight", "module.encoder.block4.2.norm1.ln_0.bias", "module.encoder.block4.2.norm1.ln_1.weight", "module.encoder.block4.2.norm1.ln_1.bias", "module.encoder.block4.2.attn.q.module.weight", "module.encoder.block4.2.attn.q.module.bias", "module.encoder.block4.2.attn.kv.module.weight", "module.encoder.block4.2.attn.kv.module.bias", "module.encoder.block4.2.attn.proj.module.weight", "module.encoder.block4.2.attn.proj.module.bias", "module.encoder.block4.2.norm2.ln_0.weight", "module.encoder.block4.2.norm2.ln_0.bias", "module.encoder.block4.2.norm2.ln_1.weight", "module.encoder.block4.2.norm2.ln_1.bias", "module.encoder.block4.2.mlp.fc1.module.weight", "module.encoder.block4.2.mlp.fc1.module.bias", "module.encoder.block4.2.mlp.dwconv.dwconv.weight", "module.encoder.block4.2.mlp.dwconv.dwconv.bias", "module.encoder.block4.2.mlp.fc2.module.weight", "module.encoder.block4.2.mlp.fc2.module.bias".