Edit model card

chickens-repro-2-xl

This model is a fine-tuned version of facebook/detr-resnet-50 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.1892

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 1e-05
  • train_batch_size: 2
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • num_epochs: 300

Training results

Training Loss Epoch Step Validation Loss
1.6284 1.0 368 1.5748
1.4806 2.0 736 1.2493
1.1978 3.0 1104 1.1715
1.1901 4.0 1472 0.9759
0.9299 5.0 1840 0.8260
0.8422 6.0 2208 0.8049
0.8707 7.0 2576 0.7193
0.7687 8.0 2944 0.6395
0.7759 9.0 3312 0.7617
0.6356 10.0 3680 0.4434
0.5387 11.0 4048 0.4610
0.4619 12.0 4416 0.3963
0.503 13.0 4784 0.4240
0.4543 14.0 5152 0.4430
0.454 15.0 5520 0.4177
0.4231 16.0 5888 0.3456
0.4231 17.0 6256 0.3564
0.3714 18.0 6624 0.3325
0.42 19.0 6992 0.3517
0.4081 20.0 7360 0.3643
0.4083 21.0 7728 0.3186
0.3651 22.0 8096 0.3302
0.3553 23.0 8464 0.3234
0.296 24.0 8832 0.3057
0.3864 25.0 9200 0.3177
0.4336 26.0 9568 0.3529
0.3228 27.0 9936 0.2967
0.3687 28.0 10304 0.3063
0.3342 29.0 10672 0.3099
0.3283 30.0 11040 0.3006
0.3027 31.0 11408 0.2762
0.3197 32.0 11776 0.3170
0.3099 33.0 12144 0.2741
0.314 34.0 12512 0.2625
0.3325 35.0 12880 0.2994
0.3173 36.0 13248 0.2850
0.3112 37.0 13616 0.2830
0.4009 38.0 13984 0.2860
0.3526 39.0 14352 0.2586
0.2708 40.0 14720 0.2668
0.3086 41.0 15088 0.2620
0.3784 42.0 15456 0.2813
0.2815 43.0 15824 0.2761
0.294 44.0 16192 0.2651
0.3142 45.0 16560 0.3043
0.3088 46.0 16928 0.2676
0.2633 47.0 17296 0.2590
0.3051 48.0 17664 0.2767
0.2873 49.0 18032 0.2897
0.3239 50.0 18400 0.2556
0.2452 51.0 18768 0.2427
0.2972 52.0 19136 0.2439
0.2893 53.0 19504 0.2240
0.2594 54.0 19872 0.2490
0.2508 55.0 20240 0.2163
0.2453 56.0 20608 0.2495
0.2247 57.0 20976 0.2559
0.2856 58.0 21344 0.2435
0.3117 59.0 21712 0.2465
0.262 60.0 22080 0.2813
0.2566 61.0 22448 0.2274
0.2584 62.0 22816 0.2525
0.2947 63.0 23184 0.2322
0.2651 64.0 23552 0.2545
0.254 65.0 23920 0.2219
0.2372 66.0 24288 0.2349
0.2744 67.0 24656 0.2163
0.2638 68.0 25024 0.2457
0.2755 69.0 25392 0.2267
0.2391 70.0 25760 0.2416
0.2374 71.0 26128 0.2703
0.2684 72.0 26496 0.2668
0.2163 73.0 26864 0.2440
0.2328 74.0 27232 0.2316
0.2451 75.0 27600 0.2375
0.2428 76.0 27968 0.2210
0.242 77.0 28336 0.2303
0.2294 78.0 28704 0.2446
0.2169 79.0 29072 0.2383
0.2516 80.0 29440 0.2166
0.245 81.0 29808 0.2639
0.2455 82.0 30176 0.2542
0.2339 83.0 30544 0.2327
0.1973 84.0 30912 0.2111
0.2587 85.0 31280 0.2258
0.2297 86.0 31648 0.2195
0.2396 87.0 32016 0.2120
0.2529 88.0 32384 0.2305
0.2585 89.0 32752 0.2368
0.2274 90.0 33120 0.2175
0.2014 91.0 33488 0.2129
0.2349 92.0 33856 0.2093
0.2168 93.0 34224 0.2113
0.2092 94.0 34592 0.2048
0.2133 95.0 34960 0.2155
0.2101 96.0 35328 0.2246
0.2742 97.0 35696 0.2364
0.2158 98.0 36064 0.2160
0.2255 99.0 36432 0.2149
0.2255 100.0 36800 0.2166
0.2289 101.0 37168 0.1937
0.2208 102.0 37536 0.1980
0.2136 103.0 37904 0.2235
0.1907 104.0 38272 0.2418
0.2116 105.0 38640 0.2366
0.2204 106.0 39008 0.2315
0.2397 107.0 39376 0.2275
0.234 108.0 39744 0.2129
0.2566 109.0 40112 0.2269
0.2042 110.0 40480 0.2187
0.2103 111.0 40848 0.2158
0.1942 112.0 41216 0.2108
0.2176 113.0 41584 0.2214
0.173 114.0 41952 0.2065
0.2072 115.0 42320 0.2355
0.223 116.0 42688 0.2251
0.2256 117.0 43056 0.2209
0.2283 118.0 43424 0.2072
0.1896 119.0 43792 0.2134
0.1981 120.0 44160 0.2099
0.207 121.0 44528 0.2021
0.1805 122.0 44896 0.2293
0.1891 123.0 45264 0.2049
0.2385 124.0 45632 0.2209
0.2058 125.0 46000 0.2052
0.1924 126.0 46368 0.1902
0.2115 127.0 46736 0.1905
0.1854 128.0 47104 0.2186
0.2092 129.0 47472 0.2060
0.2179 130.0 47840 0.1991
0.1959 131.0 48208 0.2163
0.1933 132.0 48576 0.2131
0.1692 133.0 48944 0.2166
0.1947 134.0 49312 0.2025
0.21 135.0 49680 0.2100
0.2085 136.0 50048 0.1976
0.1939 137.0 50416 0.2094
0.1802 138.0 50784 0.1805
0.1901 139.0 51152 0.2137
0.1898 140.0 51520 0.1975
0.2238 141.0 51888 0.2159
0.2033 142.0 52256 0.2131
0.1789 143.0 52624 0.2085
0.2183 144.0 52992 0.2133
0.1987 145.0 53360 0.2017
0.188 146.0 53728 0.2268
0.1875 147.0 54096 0.2254
0.1834 148.0 54464 0.1936
0.2542 149.0 54832 0.1943
0.2011 150.0 55200 0.2157
0.1879 151.0 55568 0.2007
0.1725 152.0 55936 0.2366
0.1927 153.0 56304 0.1928
0.1887 154.0 56672 0.1922
0.1909 155.0 57040 0.2334
0.1868 156.0 57408 0.2196
0.1583 157.0 57776 0.2081
0.1493 158.0 58144 0.2188
0.1765 159.0 58512 0.2094
0.2103 160.0 58880 0.1948
0.1848 161.0 59248 0.2150
0.1743 162.0 59616 0.2131
0.1658 163.0 59984 0.1826
0.1733 164.0 60352 0.2283
0.1448 165.0 60720 0.2124
0.1569 166.0 61088 0.2262
0.1628 167.0 61456 0.1855
0.1723 168.0 61824 0.2004
0.1508 169.0 62192 0.2066
0.1727 170.0 62560 0.1888
0.1436 171.0 62928 0.2012
0.1645 172.0 63296 0.1895
0.1819 173.0 63664 0.1901
0.154 174.0 64032 0.2327
0.1763 175.0 64400 0.2138
0.1672 176.0 64768 0.1978
0.1549 177.0 65136 0.2005
0.2066 178.0 65504 0.1864
0.1729 179.0 65872 0.2015
0.1595 180.0 66240 0.1901
0.1391 181.0 66608 0.1911
0.206 182.0 66976 0.2079
0.1477 183.0 67344 0.1876
0.1723 184.0 67712 0.2033
0.1836 185.0 68080 0.1972
0.1501 186.0 68448 0.1924
0.159 187.0 68816 0.1914
0.1402 188.0 69184 0.1994
0.1546 189.0 69552 0.1882
0.1637 190.0 69920 0.2100
0.1473 191.0 70288 0.1811
0.139 192.0 70656 0.1778
0.1591 193.0 71024 0.1967
0.1343 194.0 71392 0.1813
0.2054 195.0 71760 0.1878
0.1692 196.0 72128 0.1826
0.1447 197.0 72496 0.1921
0.1645 198.0 72864 0.2022
0.159 199.0 73232 0.2171
0.1542 200.0 73600 0.1984
0.1352 201.0 73968 0.2138
0.1752 202.0 74336 0.2031
0.1699 203.0 74704 0.1995
0.1617 204.0 75072 0.1945
0.1477 205.0 75440 0.1882
0.1572 206.0 75808 0.1839
0.1672 207.0 76176 0.1863
0.1601 208.0 76544 0.1822
0.1676 209.0 76912 0.1937
0.1369 210.0 77280 0.1877
0.1393 211.0 77648 0.1800
0.1464 212.0 78016 0.1725
0.1676 213.0 78384 0.1824
0.1333 214.0 78752 0.1907
0.1647 215.0 79120 0.1865
0.1473 216.0 79488 0.2046
0.1498 217.0 79856 0.1890
0.1536 218.0 80224 0.1996
0.1381 219.0 80592 0.1945
0.1425 220.0 80960 0.1892
0.1608 221.0 81328 0.1911
0.1431 222.0 81696 0.1862
0.1754 223.0 82064 0.1869
0.1503 224.0 82432 0.1846
0.1502 225.0 82800 0.1919
0.1574 226.0 83168 0.1913
0.1431 227.0 83536 0.1982
0.1412 228.0 83904 0.1939
0.1252 229.0 84272 0.1789
0.165 230.0 84640 0.1823
0.1498 231.0 85008 0.1969
0.1429 232.0 85376 0.1929
0.1288 233.0 85744 0.2008
0.1367 234.0 86112 0.1851
0.1413 235.0 86480 0.1852
0.1567 236.0 86848 0.1892
0.1442 237.0 87216 0.1855
0.1396 238.0 87584 0.1857
0.1253 239.0 87952 0.1884
0.1617 240.0 88320 0.1796
0.1258 241.0 88688 0.1922
0.1557 242.0 89056 0.1922
0.1606 243.0 89424 0.1728
0.1628 244.0 89792 0.1927
0.1408 245.0 90160 0.1890
0.1396 246.0 90528 0.1839
0.1708 247.0 90896 0.1838
0.1304 248.0 91264 0.1945
0.1649 249.0 91632 0.1771
0.1337 250.0 92000 0.1765
0.1385 251.0 92368 0.1954
0.1705 252.0 92736 0.1830
0.177 253.0 93104 0.1850
0.1372 254.0 93472 0.1958
0.1891 255.0 93840 0.1853
0.1423 256.0 94208 0.1928
0.1445 257.0 94576 0.1801
0.1506 258.0 94944 0.1899
0.1479 259.0 95312 0.1863
0.1279 260.0 95680 0.1901
0.1303 261.0 96048 0.1833
0.1488 262.0 96416 0.1805
0.1355 263.0 96784 0.1903
0.1188 264.0 97152 0.1877
0.1436 265.0 97520 0.1876
0.1531 266.0 97888 0.1912
0.1394 267.0 98256 0.1891
0.1342 268.0 98624 0.1905
0.1235 269.0 98992 0.1873
0.1238 270.0 99360 0.1940
0.1304 271.0 99728 0.1905
0.1216 272.0 100096 0.1929
0.1426 273.0 100464 0.1931
0.1308 274.0 100832 0.1940
0.164 275.0 101200 0.1903
0.1486 276.0 101568 0.1917
0.1677 277.0 101936 0.1915
0.1499 278.0 102304 0.1912
0.1685 279.0 102672 0.1931
0.1566 280.0 103040 0.1876
0.1471 281.0 103408 0.1892
0.1425 282.0 103776 0.1887
0.1331 283.0 104144 0.1889
0.1181 284.0 104512 0.1911
0.1397 285.0 104880 0.1910
0.1157 286.0 105248 0.1914
0.138 287.0 105616 0.1909
0.1199 288.0 105984 0.1911
0.1625 289.0 106352 0.1914
0.1185 290.0 106720 0.1912
0.1463 291.0 107088 0.1893
0.1723 292.0 107456 0.1890
0.1365 293.0 107824 0.1888
0.1609 294.0 108192 0.1889
0.1757 295.0 108560 0.1892
0.1275 296.0 108928 0.1890
0.1528 297.0 109296 0.1892
0.1529 298.0 109664 0.1892
0.1465 299.0 110032 0.1892
0.1461 300.0 110400 0.1892

Framework versions

  • Transformers 4.45.1
  • Pytorch 2.4.1+cu121
  • Datasets 2.19.2
  • Tokenizers 0.20.0
Downloads last month
62
Safetensors
Model size
41.6M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for joe611/chickens-repro-2-xl

Finetuned
(447)
this model