Edit model card

swinv2-base-patch4-window8-256-mineral

This model is a fine-tuned version of microsoft/swinv2-base-patch4-window8-256 on the imagefolder dataset. It achieves the following results on the evaluation set:

  • Loss: 5.1457
  • Accuracy: 0.245

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 32
  • eval_batch_size: 32
  • seed: 42
  • gradient_accumulation_steps: 4
  • total_train_batch_size: 128
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.1
  • num_epochs: 500

Training results

Training Loss Epoch Step Validation Loss Accuracy
5.6939 0.96 18 5.6774 0.0067
5.6713 1.97 37 5.6701 0.005
5.665 2.99 56 5.6592 0.0033
5.6497 4.0 75 5.6487 0.005
5.6375 4.96 93 5.6375 0.0083
5.6141 5.97 112 5.6255 0.0133
5.5981 6.99 131 5.6123 0.0167
5.5718 8.0 150 5.5961 0.0117
5.5526 8.96 168 5.5777 0.0117
5.5 9.97 187 5.5554 0.015
5.4391 10.99 206 5.5290 0.0167
5.3112 12.0 225 5.4914 0.0217
5.25 12.96 243 5.4305 0.0283
5.1361 13.97 262 5.3729 0.045
4.985 14.99 281 5.2795 0.0483
4.8031 16.0 300 5.1991 0.0633
4.6843 16.96 318 5.0976 0.0683
4.3959 17.97 337 4.9828 0.0783
4.2277 18.99 356 4.8522 0.0883
3.9594 20.0 375 4.7467 0.1017
3.7637 20.96 393 4.6450 0.1183
3.4748 21.97 412 4.5736 0.1317
3.2937 22.99 431 4.4707 0.13
3.1059 24.0 450 4.4103 0.1567
2.8278 24.96 468 4.3476 0.1417
2.7093 25.97 487 4.2624 0.1517
2.4771 26.99 506 4.2065 0.1667
2.3164 28.0 525 4.1656 0.17
2.1912 28.96 543 4.1606 0.1617
1.9385 29.97 562 4.1411 0.1717
1.7912 30.99 581 4.1030 0.1667
1.6852 32.0 600 4.0695 0.1833
1.478 32.96 618 4.0546 0.1717
1.3769 33.97 637 4.0407 0.1917
1.2175 34.99 656 4.0224 0.19
1.1616 36.0 675 4.0421 0.1867
1.0305 36.96 693 4.0470 0.1933
0.9513 37.97 712 4.0161 0.195
0.8428 38.99 731 4.0153 0.2033
0.7385 40.0 750 4.0600 0.1867
0.667 40.96 768 4.0568 0.215
0.6017 41.97 787 4.0459 0.2033
0.6252 42.99 806 4.0209 0.2183
0.5604 44.0 825 4.1177 0.2133
0.4691 44.96 843 4.0966 0.1967
0.4445 45.97 862 4.1254 0.215
0.4151 46.99 881 4.1253 0.2133
0.3903 48.0 900 4.1026 0.195
0.3551 48.96 918 4.1544 0.2033
0.3656 49.97 937 4.2111 0.2117
0.3651 50.99 956 4.2143 0.1983
0.3282 52.0 975 4.1838 0.2217
0.2737 52.96 993 4.1866 0.2083
0.2867 53.97 1012 4.2628 0.1983
0.3202 54.99 1031 4.2542 0.2117
0.2761 56.0 1050 4.2476 0.2183
0.262 56.96 1068 4.2466 0.21
0.2779 57.97 1087 4.2886 0.215
0.2278 58.99 1106 4.2835 0.22
0.2597 60.0 1125 4.2966 0.2183
0.2364 60.96 1143 4.3238 0.2167
0.2523 61.97 1162 4.2324 0.2083
0.2199 62.99 1181 4.3234 0.2033
0.2264 64.0 1200 4.3092 0.2167
0.2004 64.96 1218 4.3842 0.2017
0.1958 65.97 1237 4.3319 0.2033
0.1942 66.99 1256 4.3161 0.225
0.2094 68.0 1275 4.3120 0.2267
0.1826 68.96 1293 4.3541 0.2267
0.1984 69.97 1312 4.3720 0.2317
0.1863 70.99 1331 4.3854 0.225
0.2019 72.0 1350 4.3635 0.215
0.1679 72.96 1368 4.3958 0.2183
0.1765 73.97 1387 4.4110 0.2133
0.1647 74.99 1406 4.4675 0.2167
0.151 76.0 1425 4.4919 0.2183
0.1621 76.96 1443 4.4519 0.2183
0.1417 77.97 1462 4.4599 0.2017
0.1685 78.99 1481 4.5555 0.2133
0.1637 80.0 1500 4.4596 0.2117
0.1692 80.96 1518 4.4194 0.2233
0.1771 81.97 1537 4.4831 0.2217
0.1433 82.99 1556 4.5271 0.1983
0.1615 84.0 1575 4.4425 0.21
0.1605 84.96 1593 4.4559 0.2183
0.1402 85.97 1612 4.5123 0.21
0.1639 86.99 1631 4.5368 0.2117
0.1333 88.0 1650 4.5109 0.2217
0.1405 88.96 1668 4.5220 0.2217
0.1427 89.97 1687 4.5414 0.225
0.1346 90.99 1706 4.4954 0.2317
0.1494 92.0 1725 4.5996 0.2217
0.1432 92.96 1743 4.5152 0.2167
0.1276 93.97 1762 4.5623 0.2217
0.1344 94.99 1781 4.5049 0.2233
0.1157 96.0 1800 4.5413 0.22
0.1324 96.96 1818 4.5660 0.225
0.1262 97.97 1837 4.5358 0.2317
0.1299 98.99 1856 4.6085 0.225
0.1077 100.0 1875 4.5516 0.2267
0.1386 100.96 1893 4.5751 0.23
0.1463 101.97 1912 4.6149 0.2117
0.0921 102.99 1931 4.5543 0.2383
0.1094 104.0 1950 4.6144 0.2283
0.1327 104.96 1968 4.5966 0.2283
0.101 105.97 1987 4.5869 0.22
0.1275 106.99 2006 4.5588 0.2367
0.1175 108.0 2025 4.6091 0.2133
0.1031 108.96 2043 4.6347 0.22
0.1086 109.97 2062 4.5894 0.215
0.1158 110.99 2081 4.6496 0.2267
0.1091 112.0 2100 4.6218 0.22
0.0885 112.96 2118 4.6319 0.2133
0.0732 113.97 2137 4.7100 0.21
0.113 114.99 2156 4.6596 0.21
0.0872 116.0 2175 4.6277 0.2217
0.0862 116.96 2193 4.6262 0.2333
0.0762 117.97 2212 4.6078 0.2267
0.0916 118.99 2231 4.6198 0.215
0.1158 120.0 2250 4.6560 0.225
0.083 120.96 2268 4.5878 0.2267
0.0855 121.97 2287 4.6666 0.24
0.0963 122.99 2306 4.6186 0.2233
0.088 124.0 2325 4.6250 0.2433
0.0867 124.96 2343 4.6591 0.24
0.0858 125.97 2362 4.6467 0.2267
0.0928 126.99 2381 4.6457 0.2233
0.1189 128.0 2400 4.7195 0.2183
0.0816 128.96 2418 4.6935 0.2233
0.09 129.97 2437 4.7062 0.2183
0.0958 130.99 2456 4.6826 0.2267
0.0583 132.0 2475 4.6903 0.23
0.0878 132.96 2493 4.7640 0.2217
0.0967 133.97 2512 4.7564 0.2333
0.0902 134.99 2531 4.7551 0.225
0.0709 136.0 2550 4.7972 0.23
0.0724 136.96 2568 4.8073 0.22
0.0901 137.97 2587 4.7568 0.2283
0.0968 138.99 2606 4.7389 0.2383
0.075 140.0 2625 4.7521 0.2283
0.0955 140.96 2643 4.7091 0.2217
0.0648 141.97 2662 4.7522 0.2283
0.0792 142.99 2681 4.7606 0.2233
0.0828 144.0 2700 4.7383 0.23
0.0722 144.96 2718 4.7851 0.2383
0.0958 145.97 2737 4.7559 0.235
0.0761 146.99 2756 4.8086 0.23
0.0926 148.0 2775 4.7643 0.2317
0.0735 148.96 2793 4.7936 0.23
0.0957 149.97 2812 4.7229 0.23
0.0804 150.99 2831 4.7744 0.2133
0.0807 152.0 2850 4.8072 0.2117
0.0761 152.96 2868 4.7777 0.2283
0.0752 153.97 2887 4.8695 0.2183
0.0588 154.99 2906 4.8292 0.2283
0.0735 156.0 2925 4.7753 0.2233
0.0867 156.96 2943 4.7585 0.225
0.094 157.97 2962 4.8235 0.2317
0.0908 158.99 2981 4.8720 0.23
0.0697 160.0 3000 4.8698 0.22
0.0701 160.96 3018 4.8097 0.2283
0.0804 161.97 3037 4.7381 0.2217
0.0874 162.99 3056 4.7458 0.23
0.0661 164.0 3075 4.7571 0.225
0.0715 164.96 3093 4.8221 0.2367
0.0599 165.97 3112 4.6964 0.2467
0.0708 166.99 3131 4.8396 0.2317
0.0633 168.0 3150 4.8040 0.22
0.0531 168.96 3168 4.8200 0.2217
0.0689 169.97 3187 4.8330 0.2333
0.0502 170.99 3206 4.8688 0.2283
0.0607 172.0 3225 4.8696 0.2333
0.0705 172.96 3243 4.8514 0.225
0.0719 173.97 3262 4.8854 0.2267
0.0852 174.99 3281 4.8463 0.2233
0.0525 176.0 3300 4.8801 0.2383
0.069 176.96 3318 4.9139 0.2383
0.0716 177.97 3337 4.9129 0.225
0.0681 178.99 3356 4.8785 0.2283
0.0656 180.0 3375 4.8776 0.24
0.0866 180.96 3393 4.8923 0.24
0.0588 181.97 3412 4.8773 0.2317
0.0542 182.99 3431 4.8637 0.2417
0.0508 184.0 3450 4.8914 0.23
0.0591 184.96 3468 4.8835 0.225
0.0626 185.97 3487 4.9119 0.2317
0.0708 186.99 3506 4.8882 0.2217
0.0651 188.0 3525 4.8978 0.22
0.0609 188.96 3543 4.8657 0.2267
0.0519 189.97 3562 4.9336 0.21
0.0687 190.99 3581 4.8825 0.2217
0.0401 192.0 3600 4.9984 0.2133
0.0532 192.96 3618 4.8797 0.24
0.0515 193.97 3637 4.8716 0.2317
0.0735 194.99 3656 4.9249 0.2217
0.0708 196.0 3675 4.9456 0.2083
0.0612 196.96 3693 4.9355 0.23
0.0511 197.97 3712 4.9061 0.215
0.0573 198.99 3731 4.9662 0.2117
0.0482 200.0 3750 4.9992 0.2133
0.0454 200.96 3768 5.0024 0.2217
0.072 201.97 3787 4.9026 0.2283
0.0583 202.99 3806 4.9121 0.2283
0.0655 204.0 3825 4.9426 0.23
0.0375 204.96 3843 4.9971 0.2267
0.0652 205.97 3862 4.9414 0.2283
0.0514 206.99 3881 5.0227 0.2333
0.0677 208.0 3900 5.0196 0.2217
0.0805 208.96 3918 4.9773 0.2233
0.0556 209.97 3937 4.9303 0.235
0.0508 210.99 3956 4.8852 0.2333
0.0471 212.0 3975 4.9395 0.24
0.047 212.96 3993 4.9143 0.23
0.0438 213.97 4012 4.8727 0.2333
0.0769 214.99 4031 4.9319 0.235
0.0516 216.0 4050 4.9909 0.225
0.0413 216.96 4068 4.9651 0.2167
0.0402 217.97 4087 4.9235 0.2233
0.036 218.99 4106 4.9646 0.2267
0.0375 220.0 4125 4.9655 0.2267
0.0566 220.96 4143 4.9532 0.23
0.0591 221.97 4162 4.9400 0.2317
0.0602 222.99 4181 4.9306 0.2417
0.0339 224.0 4200 4.9925 0.2383
0.0628 224.96 4218 4.9416 0.24
0.0495 225.97 4237 4.9398 0.25
0.0545 226.99 4256 4.9522 0.2367
0.045 228.0 4275 4.8830 0.2367
0.036 228.96 4293 4.9543 0.235
0.0477 229.97 4312 4.9769 0.2267
0.0427 230.99 4331 4.9233 0.23
0.0419 232.0 4350 4.9587 0.24
0.0402 232.96 4368 4.9977 0.2233
0.0468 233.97 4387 5.0033 0.24
0.0554 234.99 4406 4.9908 0.24
0.0503 236.0 4425 4.9143 0.2433
0.0462 236.96 4443 4.8740 0.245
0.0354 237.97 4462 4.9383 0.2333
0.0381 238.99 4481 5.0228 0.2467
0.0358 240.0 4500 5.0114 0.2417
0.0264 240.96 4518 5.0244 0.23
0.0512 241.97 4537 5.0987 0.22
0.0555 242.99 4556 4.9946 0.2233
0.0545 244.0 4575 5.0295 0.23
0.0395 244.96 4593 5.0320 0.225
0.0512 245.97 4612 4.9736 0.2317
0.0343 246.99 4631 4.9499 0.2383
0.0506 248.0 4650 4.9478 0.24
0.0642 248.96 4668 4.9233 0.2417
0.035 249.97 4687 4.9348 0.2317
0.0408 250.99 4706 4.9228 0.2483
0.0431 252.0 4725 5.0074 0.24
0.0273 252.96 4743 4.9480 0.235
0.0495 253.97 4762 4.9539 0.2333
0.0431 254.99 4781 5.0146 0.245
0.0339 256.0 4800 5.0659 0.225
0.0544 256.96 4818 5.0378 0.2417
0.0365 257.97 4837 5.0133 0.2433
0.047 258.99 4856 4.9964 0.2367
0.048 260.0 4875 5.0102 0.2383
0.0469 260.96 4893 4.9275 0.245
0.0399 261.97 4912 4.9794 0.2483
0.0372 262.99 4931 4.9892 0.2383
0.0538 264.0 4950 4.9841 0.2333
0.0402 264.96 4968 5.0038 0.2383
0.0507 265.97 4987 5.0184 0.2333
0.0472 266.99 5006 4.9750 0.245
0.047 268.0 5025 5.0005 0.2533
0.0436 268.96 5043 4.9527 0.25
0.0323 269.97 5062 4.9495 0.2517
0.0454 270.99 5081 4.9883 0.2433
0.0477 272.0 5100 4.9656 0.25
0.053 272.96 5118 4.9082 0.245
0.0398 273.97 5137 4.9618 0.245
0.0347 274.99 5156 4.9594 0.2467
0.0447 276.0 5175 4.9556 0.2417
0.0312 276.96 5193 4.9943 0.2283
0.0521 277.97 5212 5.0603 0.2367
0.0386 278.99 5231 5.0410 0.2183
0.0276 280.0 5250 4.9705 0.2383
0.0532 280.96 5268 4.9813 0.235
0.0627 281.97 5287 4.9953 0.2317
0.0455 282.99 5306 4.9607 0.2433
0.0418 284.0 5325 4.9816 0.2417
0.0355 284.96 5343 4.9670 0.245
0.0307 285.97 5362 4.9994 0.2367
0.0504 286.99 5381 5.0265 0.24
0.0368 288.0 5400 5.0336 0.235
0.035 288.96 5418 5.0561 0.2417
0.0518 289.97 5437 5.0769 0.2433
0.0383 290.99 5456 5.0629 0.235
0.0381 292.0 5475 4.9694 0.2367
0.0307 292.96 5493 4.9370 0.2417
0.0447 293.97 5512 4.9549 0.2333
0.0499 294.99 5531 4.9883 0.2333
0.045 296.0 5550 4.9923 0.24
0.0579 296.96 5568 4.9793 0.24
0.0527 297.97 5587 5.0027 0.2333
0.0353 298.99 5606 5.0196 0.2283
0.0247 300.0 5625 5.0492 0.24
0.0339 300.96 5643 5.0539 0.2317
0.0525 301.97 5662 5.1091 0.2233
0.0339 302.99 5681 5.0659 0.2333
0.0406 304.0 5700 5.0559 0.2233
0.0252 304.96 5718 5.0228 0.2233
0.0358 305.97 5737 5.0661 0.2333
0.031 306.99 5756 5.0571 0.2383
0.0334 308.0 5775 5.0452 0.2417
0.0368 308.96 5793 5.0873 0.225
0.042 309.97 5812 5.1043 0.24
0.0375 310.99 5831 5.0588 0.2383
0.026 312.0 5850 5.0150 0.2417
0.0326 312.96 5868 5.0101 0.2433
0.0286 313.97 5887 5.0106 0.245
0.0164 314.99 5906 5.0428 0.24
0.0274 316.0 5925 5.0479 0.2317
0.0263 316.96 5943 4.9870 0.24
0.0371 317.97 5962 4.9846 0.2417
0.0355 318.99 5981 5.0133 0.2367
0.0342 320.0 6000 5.0306 0.2467
0.0377 320.96 6018 5.0073 0.235
0.0369 321.97 6037 4.9949 0.2517
0.0375 322.99 6056 5.0409 0.2483
0.0287 324.0 6075 5.0325 0.24
0.0319 324.96 6093 5.0241 0.245
0.0315 325.97 6112 5.0320 0.235
0.0404 326.99 6131 5.0403 0.2383
0.0287 328.0 6150 5.0792 0.2383
0.0611 328.96 6168 5.0378 0.2367
0.0296 329.97 6187 5.0192 0.2333
0.0259 330.99 6206 5.0362 0.2317
0.0257 332.0 6225 5.0494 0.2433
0.0294 332.96 6243 5.0462 0.2383
0.0483 333.97 6262 5.0474 0.225
0.0332 334.99 6281 5.0521 0.2233
0.0278 336.0 6300 5.0483 0.2367
0.0241 336.96 6318 5.0617 0.2367
0.0356 337.97 6337 5.0549 0.2367
0.0326 338.99 6356 5.0920 0.225
0.0255 340.0 6375 5.1311 0.2283
0.0415 340.96 6393 5.1072 0.2267
0.0241 341.97 6412 5.0731 0.2217
0.0343 342.99 6431 5.0496 0.2283
0.0196 344.0 6450 5.0186 0.2383
0.0451 344.96 6468 5.0546 0.235
0.0291 345.97 6487 5.0705 0.2367
0.0244 346.99 6506 5.0857 0.2267
0.0356 348.0 6525 5.0919 0.2367
0.03 348.96 6543 5.0770 0.2333
0.033 349.97 6562 5.0676 0.2333
0.0231 350.99 6581 5.0522 0.2383
0.0348 352.0 6600 5.0550 0.2283
0.0234 352.96 6618 5.0709 0.2317
0.0302 353.97 6637 5.0728 0.2283
0.0269 354.99 6656 5.1108 0.2217
0.0287 356.0 6675 5.1299 0.2283
0.0459 356.96 6693 5.0675 0.2333
0.0357 357.97 6712 5.0613 0.235
0.0254 358.99 6731 5.0390 0.245
0.0208 360.0 6750 5.0600 0.2333
0.0264 360.96 6768 5.1158 0.24
0.0248 361.97 6787 5.1090 0.2417
0.0289 362.99 6806 5.1165 0.2417
0.0234 364.0 6825 5.0914 0.24
0.0354 364.96 6843 5.0802 0.2317
0.0261 365.97 6862 5.0958 0.2433
0.0413 366.99 6881 5.1149 0.2333
0.0328 368.0 6900 5.1452 0.2333
0.0285 368.96 6918 5.1633 0.2317
0.035 369.97 6937 5.1334 0.2367
0.0223 370.99 6956 5.1195 0.2483
0.0216 372.0 6975 5.0994 0.24
0.0246 372.96 6993 5.0976 0.2467
0.0195 373.97 7012 5.1302 0.2383
0.0323 374.99 7031 5.1269 0.245
0.0402 376.0 7050 5.1254 0.23
0.0249 376.96 7068 5.1320 0.2267
0.0282 377.97 7087 5.1341 0.2233
0.0284 378.99 7106 5.1457 0.2267
0.0247 380.0 7125 5.1302 0.2283
0.0254 380.96 7143 5.1563 0.2317
0.0307 381.97 7162 5.1569 0.2283
0.025 382.99 7181 5.1598 0.2267
0.0438 384.0 7200 5.1443 0.23
0.0318 384.96 7218 5.1208 0.2367
0.0131 385.97 7237 5.0810 0.2317
0.0223 386.99 7256 5.0733 0.235
0.0212 388.0 7275 5.1003 0.23
0.0269 388.96 7293 5.1205 0.2283
0.0334 389.97 7312 5.1224 0.2283
0.0285 390.99 7331 5.1208 0.2283
0.0427 392.0 7350 5.1224 0.2383
0.0228 392.96 7368 5.0950 0.2333
0.0144 393.97 7387 5.0910 0.235
0.0293 394.99 7406 5.0855 0.2483
0.0135 396.0 7425 5.0941 0.24
0.0297 396.96 7443 5.1149 0.2367
0.0242 397.97 7462 5.1468 0.24
0.0188 398.99 7481 5.1389 0.24
0.013 400.0 7500 5.1085 0.24
0.0215 400.96 7518 5.1079 0.2417
0.0246 401.97 7537 5.1225 0.2433
0.0381 402.99 7556 5.1049 0.2333
0.0268 404.0 7575 5.0964 0.2367
0.022 404.96 7593 5.1123 0.2417
0.0258 405.97 7612 5.1242 0.2367
0.0234 406.99 7631 5.1538 0.2367
0.0346 408.0 7650 5.1587 0.24
0.0251 408.96 7668 5.1695 0.2367
0.0319 409.97 7687 5.1242 0.2367
0.0296 410.99 7706 5.1253 0.245
0.0311 412.0 7725 5.1319 0.235
0.0246 412.96 7743 5.1435 0.2383
0.0148 413.97 7762 5.1314 0.2433
0.0196 414.99 7781 5.1186 0.2433
0.0206 416.0 7800 5.1153 0.24
0.0377 416.96 7818 5.1252 0.23
0.0246 417.97 7837 5.1409 0.235
0.0115 418.99 7856 5.1439 0.235
0.0139 420.0 7875 5.1273 0.2333
0.0238 420.96 7893 5.1244 0.2333
0.0228 421.97 7912 5.1404 0.2333
0.0276 422.99 7931 5.1417 0.23
0.0276 424.0 7950 5.1281 0.235
0.0186 424.96 7968 5.1225 0.24
0.0463 425.97 7987 5.1386 0.2333
0.0192 426.99 8006 5.1411 0.2383
0.0277 428.0 8025 5.1424 0.235
0.0304 428.96 8043 5.1354 0.23
0.0303 429.97 8062 5.1346 0.2383
0.0236 430.99 8081 5.1426 0.2367
0.0279 432.0 8100 5.1394 0.24
0.0218 432.96 8118 5.1427 0.2383
0.0194 433.97 8137 5.1346 0.235
0.0116 434.99 8156 5.1279 0.2333
0.0201 436.0 8175 5.1297 0.2333
0.0319 436.96 8193 5.1245 0.235
0.0225 437.97 8212 5.1166 0.2367
0.0176 438.99 8231 5.1184 0.2333
0.015 440.0 8250 5.1266 0.235
0.0226 440.96 8268 5.1210 0.2317
0.0158 441.97 8287 5.1206 0.2383
0.0182 442.99 8306 5.1153 0.2367
0.0318 444.0 8325 5.1076 0.235
0.0283 444.96 8343 5.1095 0.2333
0.0265 445.97 8362 5.1310 0.2333
0.0187 446.99 8381 5.1357 0.235
0.02 448.0 8400 5.1346 0.2283
0.0238 448.96 8418 5.1394 0.23
0.0176 449.97 8437 5.1368 0.2333
0.0193 450.99 8456 5.1376 0.235
0.034 452.0 8475 5.1447 0.2383
0.0204 452.96 8493 5.1470 0.235
0.0188 453.97 8512 5.1478 0.235
0.0256 454.99 8531 5.1441 0.2367
0.026 456.0 8550 5.1448 0.235
0.0179 456.96 8568 5.1457 0.2317
0.0233 457.97 8587 5.1456 0.235
0.0186 458.99 8606 5.1381 0.235
0.0203 460.0 8625 5.1357 0.2333
0.0266 460.96 8643 5.1313 0.2417
0.0242 461.97 8662 5.1319 0.2417
0.0234 462.99 8681 5.1338 0.24
0.0184 464.0 8700 5.1343 0.2417
0.016 464.96 8718 5.1374 0.2383
0.0357 465.97 8737 5.1385 0.24
0.021 466.99 8756 5.1406 0.2417
0.0209 468.0 8775 5.1426 0.2417
0.0186 468.96 8793 5.1428 0.2417
0.027 469.97 8812 5.1442 0.2417
0.0146 470.99 8831 5.1449 0.2433
0.0237 472.0 8850 5.1456 0.2433
0.0147 472.96 8868 5.1467 0.245
0.0268 473.97 8887 5.1457 0.245
0.015 474.99 8906 5.1465 0.2433
0.0116 476.0 8925 5.1462 0.2433
0.0151 476.96 8943 5.1453 0.2433
0.0225 477.97 8962 5.1453 0.245
0.0267 478.99 8981 5.1456 0.245
0.031 480.0 9000 5.1457 0.245

Framework versions

  • Transformers 4.31.0
  • Pytorch 1.13.1
  • Datasets 2.14.0
  • Tokenizers 0.13.3
Downloads last month
142
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for minatosnow/swinv2-base-patch4-window8-256-mineral

Finetuned
(11)
this model

Evaluation results