whisper-medium-eu / trainer_state.json
xezpeleta's picture
End of training
9ddd378 verified
raw
history blame
56.1 kB
{
"best_metric": 8.8020814247499,
"best_model_checkpoint": "./checkpoint-8000",
"epoch": 4.148,
"eval_steps": 500,
"global_step": 8000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.003125,
"grad_norm": 15.080086708068848,
"learning_rate": 2.875e-07,
"loss": 1.3478,
"step": 25
},
{
"epoch": 0.00625,
"grad_norm": 11.962413787841797,
"learning_rate": 6.000000000000001e-07,
"loss": 1.14,
"step": 50
},
{
"epoch": 0.009375,
"grad_norm": 10.828227996826172,
"learning_rate": 9.124999999999999e-07,
"loss": 0.8401,
"step": 75
},
{
"epoch": 0.0125,
"grad_norm": 9.401681900024414,
"learning_rate": 1.2250000000000001e-06,
"loss": 0.7112,
"step": 100
},
{
"epoch": 0.015625,
"grad_norm": 9.252142906188965,
"learning_rate": 1.5375e-06,
"loss": 0.6528,
"step": 125
},
{
"epoch": 0.01875,
"grad_norm": 10.718783378601074,
"learning_rate": 1.85e-06,
"loss": 0.6492,
"step": 150
},
{
"epoch": 0.021875,
"grad_norm": 7.8105082511901855,
"learning_rate": 2.1625e-06,
"loss": 0.5886,
"step": 175
},
{
"epoch": 0.025,
"grad_norm": 8.969450950622559,
"learning_rate": 2.4750000000000004e-06,
"loss": 0.5284,
"step": 200
},
{
"epoch": 0.028125,
"grad_norm": 8.110017776489258,
"learning_rate": 2.7875e-06,
"loss": 0.5097,
"step": 225
},
{
"epoch": 0.03125,
"grad_norm": 8.07854175567627,
"learning_rate": 3.1e-06,
"loss": 0.48,
"step": 250
},
{
"epoch": 0.034375,
"grad_norm": 9.469429016113281,
"learning_rate": 3.4125000000000004e-06,
"loss": 0.4453,
"step": 275
},
{
"epoch": 0.0375,
"grad_norm": 6.849759578704834,
"learning_rate": 3.725e-06,
"loss": 0.4249,
"step": 300
},
{
"epoch": 0.040625,
"grad_norm": 8.43980598449707,
"learning_rate": 4.037500000000001e-06,
"loss": 0.4093,
"step": 325
},
{
"epoch": 0.04375,
"grad_norm": 7.9978132247924805,
"learning_rate": 4.35e-06,
"loss": 0.4179,
"step": 350
},
{
"epoch": 0.046875,
"grad_norm": 7.179676532745361,
"learning_rate": 4.6625e-06,
"loss": 0.366,
"step": 375
},
{
"epoch": 0.05,
"grad_norm": 8.746236801147461,
"learning_rate": 4.975000000000001e-06,
"loss": 0.3484,
"step": 400
},
{
"epoch": 0.053125,
"grad_norm": 6.08207893371582,
"learning_rate": 5.2875e-06,
"loss": 0.3177,
"step": 425
},
{
"epoch": 0.05625,
"grad_norm": 7.5096235275268555,
"learning_rate": 5.600000000000001e-06,
"loss": 0.3407,
"step": 450
},
{
"epoch": 0.059375,
"grad_norm": 6.521783828735352,
"learning_rate": 5.9125e-06,
"loss": 0.3323,
"step": 475
},
{
"epoch": 0.0625,
"grad_norm": 6.018587589263916,
"learning_rate": 6.2250000000000005e-06,
"loss": 0.3171,
"step": 500
},
{
"epoch": 0.0625,
"eval_loss": 0.33685919642448425,
"eval_runtime": 2424.3615,
"eval_samples_per_second": 5.622,
"eval_steps_per_second": 0.703,
"eval_wer": 25.53043350800689,
"step": 500
},
{
"epoch": 0.065625,
"grad_norm": 6.343411922454834,
"learning_rate": 6.230833333333334e-06,
"loss": 0.323,
"step": 525
},
{
"epoch": 0.06875,
"grad_norm": 6.164433479309082,
"learning_rate": 6.210000000000001e-06,
"loss": 0.2979,
"step": 550
},
{
"epoch": 0.071875,
"grad_norm": 7.514057159423828,
"learning_rate": 6.1891666666666666e-06,
"loss": 0.2956,
"step": 575
},
{
"epoch": 0.075,
"grad_norm": 5.7609992027282715,
"learning_rate": 6.168333333333333e-06,
"loss": 0.2966,
"step": 600
},
{
"epoch": 0.078125,
"grad_norm": 6.035708427429199,
"learning_rate": 6.147500000000001e-06,
"loss": 0.2914,
"step": 625
},
{
"epoch": 0.08125,
"grad_norm": 6.485240459442139,
"learning_rate": 6.126666666666667e-06,
"loss": 0.2929,
"step": 650
},
{
"epoch": 0.084375,
"grad_norm": 5.631970405578613,
"learning_rate": 6.1058333333333335e-06,
"loss": 0.2676,
"step": 675
},
{
"epoch": 0.0875,
"grad_norm": 6.642117977142334,
"learning_rate": 6.085e-06,
"loss": 0.2756,
"step": 700
},
{
"epoch": 0.090625,
"grad_norm": 6.473007678985596,
"learning_rate": 6.064166666666667e-06,
"loss": 0.2613,
"step": 725
},
{
"epoch": 0.09375,
"grad_norm": 6.47869348526001,
"learning_rate": 6.043333333333334e-06,
"loss": 0.2667,
"step": 750
},
{
"epoch": 0.096875,
"grad_norm": 6.658367156982422,
"learning_rate": 6.0225e-06,
"loss": 0.2778,
"step": 775
},
{
"epoch": 0.1,
"grad_norm": 7.887542724609375,
"learning_rate": 6.001666666666667e-06,
"loss": 0.3095,
"step": 800
},
{
"epoch": 0.103125,
"grad_norm": 6.103913307189941,
"learning_rate": 5.980833333333334e-06,
"loss": 0.297,
"step": 825
},
{
"epoch": 0.10625,
"grad_norm": 6.087416648864746,
"learning_rate": 5.9600000000000005e-06,
"loss": 0.2326,
"step": 850
},
{
"epoch": 0.109375,
"grad_norm": 5.486704349517822,
"learning_rate": 5.939166666666667e-06,
"loss": 0.2215,
"step": 875
},
{
"epoch": 0.1125,
"grad_norm": 5.353816986083984,
"learning_rate": 5.918333333333333e-06,
"loss": 0.205,
"step": 900
},
{
"epoch": 0.115625,
"grad_norm": 5.429187774658203,
"learning_rate": 5.8975e-06,
"loss": 0.2185,
"step": 925
},
{
"epoch": 0.11875,
"grad_norm": 5.181328773498535,
"learning_rate": 5.8766666666666674e-06,
"loss": 0.2069,
"step": 950
},
{
"epoch": 0.121875,
"grad_norm": 4.126291751861572,
"learning_rate": 5.855833333333333e-06,
"loss": 0.2062,
"step": 975
},
{
"epoch": 0.125,
"grad_norm": 5.896920204162598,
"learning_rate": 5.835e-06,
"loss": 0.1852,
"step": 1000
},
{
"epoch": 0.125,
"eval_loss": 0.2408558428287506,
"eval_runtime": 2415.6545,
"eval_samples_per_second": 5.642,
"eval_steps_per_second": 0.705,
"eval_wer": 17.311004434021037,
"step": 1000
},
{
"epoch": 0.128125,
"grad_norm": 5.046872138977051,
"learning_rate": 5.814166666666667e-06,
"loss": 0.2142,
"step": 1025
},
{
"epoch": 0.13125,
"grad_norm": 6.671748638153076,
"learning_rate": 5.793333333333334e-06,
"loss": 0.2208,
"step": 1050
},
{
"epoch": 0.134375,
"grad_norm": 6.533191680908203,
"learning_rate": 5.7725e-06,
"loss": 0.1944,
"step": 1075
},
{
"epoch": 0.1375,
"grad_norm": 4.43493127822876,
"learning_rate": 5.751666666666667e-06,
"loss": 0.1816,
"step": 1100
},
{
"epoch": 0.140625,
"grad_norm": 5.601134777069092,
"learning_rate": 5.730833333333334e-06,
"loss": 0.1884,
"step": 1125
},
{
"epoch": 0.14375,
"grad_norm": 4.886395454406738,
"learning_rate": 5.71e-06,
"loss": 0.1712,
"step": 1150
},
{
"epoch": 0.146875,
"grad_norm": 5.513830184936523,
"learning_rate": 5.689166666666667e-06,
"loss": 0.1835,
"step": 1175
},
{
"epoch": 0.15,
"grad_norm": 6.305610179901123,
"learning_rate": 5.668333333333334e-06,
"loss": 0.2221,
"step": 1200
},
{
"epoch": 0.153125,
"grad_norm": 6.482845306396484,
"learning_rate": 5.6475e-06,
"loss": 0.2138,
"step": 1225
},
{
"epoch": 0.15625,
"grad_norm": 6.316329002380371,
"learning_rate": 5.626666666666667e-06,
"loss": 0.2338,
"step": 1250
},
{
"epoch": 0.159375,
"grad_norm": 6.650278091430664,
"learning_rate": 5.605833333333334e-06,
"loss": 0.2231,
"step": 1275
},
{
"epoch": 0.1625,
"grad_norm": 5.289668560028076,
"learning_rate": 5.585e-06,
"loss": 0.2018,
"step": 1300
},
{
"epoch": 0.165625,
"grad_norm": 6.051737308502197,
"learning_rate": 5.564166666666667e-06,
"loss": 0.2092,
"step": 1325
},
{
"epoch": 0.16875,
"grad_norm": 4.950199604034424,
"learning_rate": 5.543333333333333e-06,
"loss": 0.1934,
"step": 1350
},
{
"epoch": 0.171875,
"grad_norm": 5.296252727508545,
"learning_rate": 5.522500000000001e-06,
"loss": 0.1806,
"step": 1375
},
{
"epoch": 0.175,
"grad_norm": 5.999615669250488,
"learning_rate": 5.501666666666667e-06,
"loss": 0.1782,
"step": 1400
},
{
"epoch": 0.178125,
"grad_norm": 3.7982959747314453,
"learning_rate": 5.4808333333333335e-06,
"loss": 0.1712,
"step": 1425
},
{
"epoch": 0.18125,
"grad_norm": 6.798803806304932,
"learning_rate": 5.46e-06,
"loss": 0.1972,
"step": 1450
},
{
"epoch": 0.184375,
"grad_norm": 5.545141220092773,
"learning_rate": 5.439166666666667e-06,
"loss": 0.2153,
"step": 1475
},
{
"epoch": 0.1875,
"grad_norm": 5.619574546813965,
"learning_rate": 5.418333333333334e-06,
"loss": 0.2353,
"step": 1500
},
{
"epoch": 0.1875,
"eval_loss": 0.20496371388435364,
"eval_runtime": 2428.1499,
"eval_samples_per_second": 5.613,
"eval_steps_per_second": 0.702,
"eval_wer": 14.222763750961926,
"step": 1500
},
{
"epoch": 0.190625,
"grad_norm": 6.522052764892578,
"learning_rate": 5.3975e-06,
"loss": 0.2049,
"step": 1525
},
{
"epoch": 0.19375,
"grad_norm": 5.805539608001709,
"learning_rate": 5.376666666666666e-06,
"loss": 0.1931,
"step": 1550
},
{
"epoch": 0.196875,
"grad_norm": 5.707961082458496,
"learning_rate": 5.355833333333334e-06,
"loss": 0.1944,
"step": 1575
},
{
"epoch": 0.2,
"grad_norm": 6.126225471496582,
"learning_rate": 5.335000000000001e-06,
"loss": 0.225,
"step": 1600
},
{
"epoch": 0.203125,
"grad_norm": 5.682012557983398,
"learning_rate": 5.3141666666666665e-06,
"loss": 0.2225,
"step": 1625
},
{
"epoch": 0.20625,
"grad_norm": 5.529600620269775,
"learning_rate": 5.293333333333333e-06,
"loss": 0.2154,
"step": 1650
},
{
"epoch": 0.209375,
"grad_norm": 8.373395919799805,
"learning_rate": 5.272500000000001e-06,
"loss": 0.1866,
"step": 1675
},
{
"epoch": 0.2125,
"grad_norm": 4.936291694641113,
"learning_rate": 5.2516666666666675e-06,
"loss": 0.1615,
"step": 1700
},
{
"epoch": 1.002625,
"grad_norm": 4.893776893615723,
"learning_rate": 5.230833333333333e-06,
"loss": 0.172,
"step": 1725
},
{
"epoch": 1.00575,
"grad_norm": 4.98813533782959,
"learning_rate": 5.21e-06,
"loss": 0.1591,
"step": 1750
},
{
"epoch": 1.008875,
"grad_norm": 6.166538715362549,
"learning_rate": 5.189166666666667e-06,
"loss": 0.1712,
"step": 1775
},
{
"epoch": 1.012,
"grad_norm": 4.1829071044921875,
"learning_rate": 5.1683333333333335e-06,
"loss": 0.1908,
"step": 1800
},
{
"epoch": 1.015125,
"grad_norm": 5.497808456420898,
"learning_rate": 5.1475e-06,
"loss": 0.1791,
"step": 1825
},
{
"epoch": 1.01825,
"grad_norm": 4.581858158111572,
"learning_rate": 5.126666666666667e-06,
"loss": 0.1685,
"step": 1850
},
{
"epoch": 1.021375,
"grad_norm": 4.6282267570495605,
"learning_rate": 5.105833333333334e-06,
"loss": 0.1691,
"step": 1875
},
{
"epoch": 1.0245,
"grad_norm": 5.748936653137207,
"learning_rate": 5.0850000000000004e-06,
"loss": 0.1577,
"step": 1900
},
{
"epoch": 1.027625,
"grad_norm": 4.339770793914795,
"learning_rate": 5.064166666666667e-06,
"loss": 0.168,
"step": 1925
},
{
"epoch": 1.03075,
"grad_norm": 3.72379469871521,
"learning_rate": 5.043333333333333e-06,
"loss": 0.1616,
"step": 1950
},
{
"epoch": 1.033875,
"grad_norm": 5.169766902923584,
"learning_rate": 5.0225e-06,
"loss": 0.1663,
"step": 1975
},
{
"epoch": 1.037,
"grad_norm": 6.120935440063477,
"learning_rate": 5.001666666666667e-06,
"loss": 0.1569,
"step": 2000
},
{
"epoch": 1.037,
"eval_loss": 0.181504026055336,
"eval_runtime": 2441.5281,
"eval_samples_per_second": 5.583,
"eval_steps_per_second": 0.698,
"eval_wer": 12.286085968705338,
"step": 2000
},
{
"epoch": 1.040125,
"grad_norm": 3.2327628135681152,
"learning_rate": 4.980833333333334e-06,
"loss": 0.1526,
"step": 2025
},
{
"epoch": 1.04325,
"grad_norm": 4.2089948654174805,
"learning_rate": 4.96e-06,
"loss": 0.1427,
"step": 2050
},
{
"epoch": 1.046375,
"grad_norm": 4.837276458740234,
"learning_rate": 4.939166666666667e-06,
"loss": 0.1429,
"step": 2075
},
{
"epoch": 1.0495,
"grad_norm": 4.590527057647705,
"learning_rate": 4.918333333333334e-06,
"loss": 0.1306,
"step": 2100
},
{
"epoch": 1.052625,
"grad_norm": 5.821957111358643,
"learning_rate": 4.8975e-06,
"loss": 0.1504,
"step": 2125
},
{
"epoch": 1.05575,
"grad_norm": 4.136687278747559,
"learning_rate": 4.876666666666667e-06,
"loss": 0.1431,
"step": 2150
},
{
"epoch": 1.058875,
"grad_norm": 4.310347080230713,
"learning_rate": 4.8558333333333336e-06,
"loss": 0.1364,
"step": 2175
},
{
"epoch": 1.062,
"grad_norm": 4.1295485496521,
"learning_rate": 4.835e-06,
"loss": 0.1272,
"step": 2200
},
{
"epoch": 1.065125,
"grad_norm": 4.432501316070557,
"learning_rate": 4.814166666666667e-06,
"loss": 0.1256,
"step": 2225
},
{
"epoch": 1.06825,
"grad_norm": 3.792029619216919,
"learning_rate": 4.793333333333334e-06,
"loss": 0.1322,
"step": 2250
},
{
"epoch": 1.071375,
"grad_norm": 4.919213771820068,
"learning_rate": 4.7725e-06,
"loss": 0.1477,
"step": 2275
},
{
"epoch": 1.0745,
"grad_norm": 5.92459774017334,
"learning_rate": 4.751666666666666e-06,
"loss": 0.1518,
"step": 2300
},
{
"epoch": 1.077625,
"grad_norm": 5.6381635665893555,
"learning_rate": 4.730833333333334e-06,
"loss": 0.1489,
"step": 2325
},
{
"epoch": 1.08075,
"grad_norm": 4.690910816192627,
"learning_rate": 4.710000000000001e-06,
"loss": 0.1216,
"step": 2350
},
{
"epoch": 1.083875,
"grad_norm": 3.847102165222168,
"learning_rate": 4.6891666666666665e-06,
"loss": 0.1243,
"step": 2375
},
{
"epoch": 1.087,
"grad_norm": 2.3183677196502686,
"learning_rate": 4.668333333333333e-06,
"loss": 0.1301,
"step": 2400
},
{
"epoch": 1.090125,
"grad_norm": 3.9808385372161865,
"learning_rate": 4.647500000000001e-06,
"loss": 0.1289,
"step": 2425
},
{
"epoch": 1.09325,
"grad_norm": 4.1279616355896,
"learning_rate": 4.626666666666667e-06,
"loss": 0.119,
"step": 2450
},
{
"epoch": 1.096375,
"grad_norm": 4.029735088348389,
"learning_rate": 4.605833333333333e-06,
"loss": 0.1235,
"step": 2475
},
{
"epoch": 1.0995,
"grad_norm": 5.72581148147583,
"learning_rate": 4.585e-06,
"loss": 0.125,
"step": 2500
},
{
"epoch": 1.0995,
"eval_loss": 0.16921907663345337,
"eval_runtime": 2457.6523,
"eval_samples_per_second": 5.546,
"eval_steps_per_second": 0.693,
"eval_wer": 11.114368426838652,
"step": 2500
},
{
"epoch": 1.102625,
"grad_norm": 4.8854875564575195,
"learning_rate": 4.564166666666667e-06,
"loss": 0.122,
"step": 2525
},
{
"epoch": 1.10575,
"grad_norm": 3.682393789291382,
"learning_rate": 4.543333333333334e-06,
"loss": 0.1169,
"step": 2550
},
{
"epoch": 1.108875,
"grad_norm": 3.8288307189941406,
"learning_rate": 4.5225e-06,
"loss": 0.1184,
"step": 2575
},
{
"epoch": 1.112,
"grad_norm": 5.098357677459717,
"learning_rate": 4.501666666666667e-06,
"loss": 0.1235,
"step": 2600
},
{
"epoch": 1.115125,
"grad_norm": 3.420466899871826,
"learning_rate": 4.480833333333334e-06,
"loss": 0.1277,
"step": 2625
},
{
"epoch": 1.11825,
"grad_norm": 4.542791843414307,
"learning_rate": 4.4600000000000005e-06,
"loss": 0.1214,
"step": 2650
},
{
"epoch": 1.121375,
"grad_norm": 3.245755195617676,
"learning_rate": 4.439166666666667e-06,
"loss": 0.1109,
"step": 2675
},
{
"epoch": 1.1245,
"grad_norm": 5.041585445404053,
"learning_rate": 4.418333333333333e-06,
"loss": 0.1295,
"step": 2700
},
{
"epoch": 1.127625,
"grad_norm": 4.113171577453613,
"learning_rate": 4.3975e-06,
"loss": 0.1153,
"step": 2725
},
{
"epoch": 1.13075,
"grad_norm": 5.032025337219238,
"learning_rate": 4.376666666666667e-06,
"loss": 0.1204,
"step": 2750
},
{
"epoch": 1.133875,
"grad_norm": 5.080983638763428,
"learning_rate": 4.355833333333333e-06,
"loss": 0.1213,
"step": 2775
},
{
"epoch": 1.137,
"grad_norm": 4.304152011871338,
"learning_rate": 4.335e-06,
"loss": 0.1069,
"step": 2800
},
{
"epoch": 1.140125,
"grad_norm": 3.1360485553741455,
"learning_rate": 4.314166666666667e-06,
"loss": 0.1167,
"step": 2825
},
{
"epoch": 1.14325,
"grad_norm": 4.444480895996094,
"learning_rate": 4.2933333333333334e-06,
"loss": 0.1117,
"step": 2850
},
{
"epoch": 1.146375,
"grad_norm": 3.8886942863464355,
"learning_rate": 4.2725e-06,
"loss": 0.1134,
"step": 2875
},
{
"epoch": 1.1495,
"grad_norm": 4.360485076904297,
"learning_rate": 4.251666666666667e-06,
"loss": 0.1334,
"step": 2900
},
{
"epoch": 1.152625,
"grad_norm": 5.376945972442627,
"learning_rate": 4.230833333333334e-06,
"loss": 0.1163,
"step": 2925
},
{
"epoch": 1.15575,
"grad_norm": 4.359200954437256,
"learning_rate": 4.21e-06,
"loss": 0.1351,
"step": 2950
},
{
"epoch": 1.158875,
"grad_norm": 5.360095977783203,
"learning_rate": 4.189166666666667e-06,
"loss": 0.1113,
"step": 2975
},
{
"epoch": 1.162,
"grad_norm": 3.6014363765716553,
"learning_rate": 4.168333333333334e-06,
"loss": 0.12,
"step": 3000
},
{
"epoch": 1.162,
"eval_loss": 0.15999051928520203,
"eval_runtime": 2448.4453,
"eval_samples_per_second": 5.567,
"eval_steps_per_second": 0.696,
"eval_wer": 10.697533804829785,
"step": 3000
},
{
"epoch": 1.165125,
"grad_norm": 4.150473594665527,
"learning_rate": 4.1475e-06,
"loss": 0.1196,
"step": 3025
},
{
"epoch": 1.16825,
"grad_norm": 4.962148666381836,
"learning_rate": 4.126666666666667e-06,
"loss": 0.1261,
"step": 3050
},
{
"epoch": 1.171375,
"grad_norm": 2.9675393104553223,
"learning_rate": 4.105833333333334e-06,
"loss": 0.1087,
"step": 3075
},
{
"epoch": 1.1745,
"grad_norm": 5.842774868011475,
"learning_rate": 4.085e-06,
"loss": 0.1067,
"step": 3100
},
{
"epoch": 1.177625,
"grad_norm": 5.209335803985596,
"learning_rate": 4.064166666666667e-06,
"loss": 0.114,
"step": 3125
},
{
"epoch": 1.18075,
"grad_norm": 4.343747138977051,
"learning_rate": 4.043333333333333e-06,
"loss": 0.1398,
"step": 3150
},
{
"epoch": 1.183875,
"grad_norm": 4.5666890144348145,
"learning_rate": 4.0225e-06,
"loss": 0.112,
"step": 3175
},
{
"epoch": 1.187,
"grad_norm": 3.5483310222625732,
"learning_rate": 4.001666666666667e-06,
"loss": 0.1041,
"step": 3200
},
{
"epoch": 1.190125,
"grad_norm": 5.006927013397217,
"learning_rate": 3.9808333333333335e-06,
"loss": 0.1184,
"step": 3225
},
{
"epoch": 1.19325,
"grad_norm": 5.658267498016357,
"learning_rate": 3.96e-06,
"loss": 0.1141,
"step": 3250
},
{
"epoch": 1.196375,
"grad_norm": 2.7597854137420654,
"learning_rate": 3.939166666666667e-06,
"loss": 0.1107,
"step": 3275
},
{
"epoch": 1.1995,
"grad_norm": 4.687257289886475,
"learning_rate": 3.918333333333334e-06,
"loss": 0.1223,
"step": 3300
},
{
"epoch": 1.202625,
"grad_norm": 5.1347336769104,
"learning_rate": 3.8975e-06,
"loss": 0.1277,
"step": 3325
},
{
"epoch": 1.20575,
"grad_norm": 7.7792067527771,
"learning_rate": 3.876666666666666e-06,
"loss": 0.1293,
"step": 3350
},
{
"epoch": 1.208875,
"grad_norm": 3.461538791656494,
"learning_rate": 3.855833333333334e-06,
"loss": 0.1235,
"step": 3375
},
{
"epoch": 1.212,
"grad_norm": 3.458538055419922,
"learning_rate": 3.8350000000000006e-06,
"loss": 0.1094,
"step": 3400
},
{
"epoch": 2.002125,
"grad_norm": 6.5652313232421875,
"learning_rate": 3.8141666666666664e-06,
"loss": 0.0766,
"step": 3425
},
{
"epoch": 2.00525,
"grad_norm": 2.599691152572632,
"learning_rate": 3.7933333333333336e-06,
"loss": 0.0666,
"step": 3450
},
{
"epoch": 2.008375,
"grad_norm": 5.211915493011475,
"learning_rate": 3.7725000000000003e-06,
"loss": 0.0635,
"step": 3475
},
{
"epoch": 2.0115,
"grad_norm": 3.1992459297180176,
"learning_rate": 3.7516666666666666e-06,
"loss": 0.069,
"step": 3500
},
{
"epoch": 2.0115,
"eval_loss": 0.15404893457889557,
"eval_runtime": 2458.0949,
"eval_samples_per_second": 5.545,
"eval_steps_per_second": 0.693,
"eval_wer": 9.764923595587966,
"step": 3500
},
{
"epoch": 2.014625,
"grad_norm": 3.740165948867798,
"learning_rate": 3.7308333333333333e-06,
"loss": 0.0699,
"step": 3525
},
{
"epoch": 2.01775,
"grad_norm": 2.624305009841919,
"learning_rate": 3.7100000000000005e-06,
"loss": 0.0644,
"step": 3550
},
{
"epoch": 2.020875,
"grad_norm": 3.66835355758667,
"learning_rate": 3.689166666666667e-06,
"loss": 0.0552,
"step": 3575
},
{
"epoch": 2.024,
"grad_norm": 3.7992517948150635,
"learning_rate": 3.6683333333333335e-06,
"loss": 0.0715,
"step": 3600
},
{
"epoch": 2.027125,
"grad_norm": 3.4328665733337402,
"learning_rate": 3.6475000000000002e-06,
"loss": 0.0642,
"step": 3625
},
{
"epoch": 2.03025,
"grad_norm": 3.206305503845215,
"learning_rate": 3.626666666666667e-06,
"loss": 0.068,
"step": 3650
},
{
"epoch": 2.033375,
"grad_norm": 3.6906914710998535,
"learning_rate": 3.6058333333333333e-06,
"loss": 0.065,
"step": 3675
},
{
"epoch": 2.0365,
"grad_norm": 3.6564929485321045,
"learning_rate": 3.585e-06,
"loss": 0.0634,
"step": 3700
},
{
"epoch": 2.039625,
"grad_norm": 2.8516416549682617,
"learning_rate": 3.564166666666667e-06,
"loss": 0.0632,
"step": 3725
},
{
"epoch": 2.04275,
"grad_norm": 2.905165672302246,
"learning_rate": 3.5433333333333334e-06,
"loss": 0.0528,
"step": 3750
},
{
"epoch": 2.045875,
"grad_norm": 2.2724170684814453,
"learning_rate": 3.5225e-06,
"loss": 0.0604,
"step": 3775
},
{
"epoch": 2.049,
"grad_norm": 2.6760237216949463,
"learning_rate": 3.501666666666667e-06,
"loss": 0.0528,
"step": 3800
},
{
"epoch": 2.052125,
"grad_norm": 4.052576541900635,
"learning_rate": 3.480833333333333e-06,
"loss": 0.0535,
"step": 3825
},
{
"epoch": 2.05525,
"grad_norm": 3.6434435844421387,
"learning_rate": 3.46e-06,
"loss": 0.0499,
"step": 3850
},
{
"epoch": 2.058375,
"grad_norm": 2.612650156021118,
"learning_rate": 3.439166666666667e-06,
"loss": 0.0489,
"step": 3875
},
{
"epoch": 2.0615,
"grad_norm": 1.6679494380950928,
"learning_rate": 3.4183333333333338e-06,
"loss": 0.0475,
"step": 3900
},
{
"epoch": 2.064625,
"grad_norm": 2.7951669692993164,
"learning_rate": 3.3975e-06,
"loss": 0.0517,
"step": 3925
},
{
"epoch": 2.06775,
"grad_norm": 2.6957435607910156,
"learning_rate": 3.376666666666667e-06,
"loss": 0.0508,
"step": 3950
},
{
"epoch": 2.070875,
"grad_norm": 2.930025577545166,
"learning_rate": 3.355833333333334e-06,
"loss": 0.0554,
"step": 3975
},
{
"epoch": 2.074,
"grad_norm": 2.0811214447021484,
"learning_rate": 3.335e-06,
"loss": 0.0606,
"step": 4000
},
{
"epoch": 2.074,
"eval_loss": 0.1549645960330963,
"eval_runtime": 2475.9667,
"eval_samples_per_second": 5.505,
"eval_steps_per_second": 0.688,
"eval_wer": 9.819890798490235,
"step": 4000
},
{
"epoch": 2.077125,
"grad_norm": 2.389423370361328,
"learning_rate": 3.314166666666667e-06,
"loss": 0.0551,
"step": 4025
},
{
"epoch": 2.08025,
"grad_norm": 1.8350708484649658,
"learning_rate": 3.2933333333333337e-06,
"loss": 0.0501,
"step": 4050
},
{
"epoch": 2.083375,
"grad_norm": 3.053312063217163,
"learning_rate": 3.2725e-06,
"loss": 0.0526,
"step": 4075
},
{
"epoch": 2.0865,
"grad_norm": 3.489823341369629,
"learning_rate": 3.2516666666666667e-06,
"loss": 0.0476,
"step": 4100
},
{
"epoch": 2.089625,
"grad_norm": 3.742950916290283,
"learning_rate": 3.2308333333333335e-06,
"loss": 0.0614,
"step": 4125
},
{
"epoch": 2.09275,
"grad_norm": 1.9854848384857178,
"learning_rate": 3.2099999999999998e-06,
"loss": 0.0487,
"step": 4150
},
{
"epoch": 2.095875,
"grad_norm": 2.3751885890960693,
"learning_rate": 3.1891666666666665e-06,
"loss": 0.0496,
"step": 4175
},
{
"epoch": 2.099,
"grad_norm": 2.182997703552246,
"learning_rate": 3.1683333333333336e-06,
"loss": 0.0442,
"step": 4200
},
{
"epoch": 2.102125,
"grad_norm": 1.963120937347412,
"learning_rate": 3.1475000000000004e-06,
"loss": 0.0437,
"step": 4225
},
{
"epoch": 2.10525,
"grad_norm": 1.7127807140350342,
"learning_rate": 3.1266666666666667e-06,
"loss": 0.0479,
"step": 4250
},
{
"epoch": 2.108375,
"grad_norm": 3.277400016784668,
"learning_rate": 3.1058333333333334e-06,
"loss": 0.0535,
"step": 4275
},
{
"epoch": 2.1115,
"grad_norm": 3.1404621601104736,
"learning_rate": 3.085e-06,
"loss": 0.0431,
"step": 4300
},
{
"epoch": 2.114625,
"grad_norm": 3.8738794326782227,
"learning_rate": 3.064166666666667e-06,
"loss": 0.0436,
"step": 4325
},
{
"epoch": 2.11775,
"grad_norm": 2.9267311096191406,
"learning_rate": 3.0433333333333336e-06,
"loss": 0.0496,
"step": 4350
},
{
"epoch": 2.120875,
"grad_norm": 4.0710320472717285,
"learning_rate": 3.0225e-06,
"loss": 0.047,
"step": 4375
},
{
"epoch": 2.124,
"grad_norm": 2.9265050888061523,
"learning_rate": 3.001666666666667e-06,
"loss": 0.0434,
"step": 4400
},
{
"epoch": 2.127125,
"grad_norm": 2.666417121887207,
"learning_rate": 2.9808333333333333e-06,
"loss": 0.0357,
"step": 4425
},
{
"epoch": 2.13025,
"grad_norm": 3.082674741744995,
"learning_rate": 2.9600000000000005e-06,
"loss": 0.0486,
"step": 4450
},
{
"epoch": 2.133375,
"grad_norm": 2.291168689727783,
"learning_rate": 2.9391666666666668e-06,
"loss": 0.046,
"step": 4475
},
{
"epoch": 2.1365,
"grad_norm": 2.878455877304077,
"learning_rate": 2.9183333333333335e-06,
"loss": 0.0434,
"step": 4500
},
{
"epoch": 2.1365,
"eval_loss": 0.15800228714942932,
"eval_runtime": 2430.3639,
"eval_samples_per_second": 5.608,
"eval_steps_per_second": 0.701,
"eval_wer": 9.457107259335263,
"step": 4500
},
{
"epoch": 2.139625,
"grad_norm": 2.2872824668884277,
"learning_rate": 2.8975e-06,
"loss": 0.0507,
"step": 4525
},
{
"epoch": 2.14275,
"grad_norm": 1.6797173023223877,
"learning_rate": 2.876666666666667e-06,
"loss": 0.044,
"step": 4550
},
{
"epoch": 2.145875,
"grad_norm": 2.690349817276001,
"learning_rate": 2.8558333333333337e-06,
"loss": 0.041,
"step": 4575
},
{
"epoch": 2.149,
"grad_norm": 2.515873670578003,
"learning_rate": 2.835e-06,
"loss": 0.0503,
"step": 4600
},
{
"epoch": 2.152125,
"grad_norm": 3.210235595703125,
"learning_rate": 2.8141666666666667e-06,
"loss": 0.0539,
"step": 4625
},
{
"epoch": 2.15525,
"grad_norm": 2.19775128364563,
"learning_rate": 2.7933333333333334e-06,
"loss": 0.0486,
"step": 4650
},
{
"epoch": 2.158375,
"grad_norm": 2.8275535106658936,
"learning_rate": 2.7725e-06,
"loss": 0.0455,
"step": 4675
},
{
"epoch": 2.1615,
"grad_norm": 2.911288022994995,
"learning_rate": 2.7516666666666664e-06,
"loss": 0.0495,
"step": 4700
},
{
"epoch": 2.164625,
"grad_norm": 3.446293592453003,
"learning_rate": 2.7308333333333336e-06,
"loss": 0.0527,
"step": 4725
},
{
"epoch": 2.16775,
"grad_norm": 2.1223082542419434,
"learning_rate": 2.71e-06,
"loss": 0.0437,
"step": 4750
},
{
"epoch": 2.170875,
"grad_norm": 2.4212393760681152,
"learning_rate": 2.689166666666667e-06,
"loss": 0.0504,
"step": 4775
},
{
"epoch": 2.174,
"grad_norm": 2.440826177597046,
"learning_rate": 2.6683333333333333e-06,
"loss": 0.0432,
"step": 4800
},
{
"epoch": 2.177125,
"grad_norm": 2.3568456172943115,
"learning_rate": 2.6475e-06,
"loss": 0.0404,
"step": 4825
},
{
"epoch": 2.18025,
"grad_norm": 2.638301372528076,
"learning_rate": 2.6266666666666668e-06,
"loss": 0.0528,
"step": 4850
},
{
"epoch": 2.183375,
"grad_norm": 2.1262662410736084,
"learning_rate": 2.6058333333333335e-06,
"loss": 0.0468,
"step": 4875
},
{
"epoch": 2.1865,
"grad_norm": 1.8121278285980225,
"learning_rate": 2.5850000000000002e-06,
"loss": 0.0414,
"step": 4900
},
{
"epoch": 2.189625,
"grad_norm": 3.5271337032318115,
"learning_rate": 2.564166666666667e-06,
"loss": 0.0477,
"step": 4925
},
{
"epoch": 2.19275,
"grad_norm": 2.0672607421875,
"learning_rate": 2.5433333333333333e-06,
"loss": 0.0402,
"step": 4950
},
{
"epoch": 2.195875,
"grad_norm": 2.3378803730010986,
"learning_rate": 2.5225000000000004e-06,
"loss": 0.0458,
"step": 4975
},
{
"epoch": 2.199,
"grad_norm": 2.3618690967559814,
"learning_rate": 2.5016666666666667e-06,
"loss": 0.0455,
"step": 5000
},
{
"epoch": 2.199,
"eval_loss": 0.15326862037181854,
"eval_runtime": 2431.3758,
"eval_samples_per_second": 5.606,
"eval_steps_per_second": 0.701,
"eval_wer": 9.14104584264722,
"step": 5000
},
{
"epoch": 2.202125,
"grad_norm": 3.066169261932373,
"learning_rate": 2.4808333333333334e-06,
"loss": 0.0514,
"step": 5025
},
{
"epoch": 2.20525,
"grad_norm": 2.8991472721099854,
"learning_rate": 2.46e-06,
"loss": 0.0454,
"step": 5050
},
{
"epoch": 2.208375,
"grad_norm": 2.641075611114502,
"learning_rate": 2.439166666666667e-06,
"loss": 0.0448,
"step": 5075
},
{
"epoch": 2.2115,
"grad_norm": 3.234225034713745,
"learning_rate": 2.4183333333333336e-06,
"loss": 0.0504,
"step": 5100
},
{
"epoch": 3.001625,
"grad_norm": 1.9421311616897583,
"learning_rate": 2.3975e-06,
"loss": 0.0377,
"step": 5125
},
{
"epoch": 3.00475,
"grad_norm": 1.9280989170074463,
"learning_rate": 2.3766666666666666e-06,
"loss": 0.0291,
"step": 5150
},
{
"epoch": 3.007875,
"grad_norm": 1.701106309890747,
"learning_rate": 2.3558333333333334e-06,
"loss": 0.0254,
"step": 5175
},
{
"epoch": 3.011,
"grad_norm": 1.4093270301818848,
"learning_rate": 2.335e-06,
"loss": 0.0267,
"step": 5200
},
{
"epoch": 3.014125,
"grad_norm": 2.7806079387664795,
"learning_rate": 2.314166666666667e-06,
"loss": 0.0271,
"step": 5225
},
{
"epoch": 3.01725,
"grad_norm": 2.454941511154175,
"learning_rate": 2.2933333333333335e-06,
"loss": 0.0296,
"step": 5250
},
{
"epoch": 3.020375,
"grad_norm": 1.8080620765686035,
"learning_rate": 2.2725e-06,
"loss": 0.0254,
"step": 5275
},
{
"epoch": 3.0235,
"grad_norm": 2.4920754432678223,
"learning_rate": 2.251666666666667e-06,
"loss": 0.0242,
"step": 5300
},
{
"epoch": 3.026625,
"grad_norm": 1.4802467823028564,
"learning_rate": 2.2308333333333333e-06,
"loss": 0.0242,
"step": 5325
},
{
"epoch": 3.02975,
"grad_norm": 4.049746036529541,
"learning_rate": 2.2100000000000004e-06,
"loss": 0.026,
"step": 5350
},
{
"epoch": 3.032875,
"grad_norm": 2.304689884185791,
"learning_rate": 2.1891666666666667e-06,
"loss": 0.0261,
"step": 5375
},
{
"epoch": 3.036,
"grad_norm": 1.9863944053649902,
"learning_rate": 2.1683333333333335e-06,
"loss": 0.0251,
"step": 5400
},
{
"epoch": 3.039125,
"grad_norm": 2.0497422218322754,
"learning_rate": 2.1475e-06,
"loss": 0.0254,
"step": 5425
},
{
"epoch": 3.04225,
"grad_norm": 2.5717766284942627,
"learning_rate": 2.126666666666667e-06,
"loss": 0.0238,
"step": 5450
},
{
"epoch": 3.045375,
"grad_norm": 1.1389164924621582,
"learning_rate": 2.1058333333333332e-06,
"loss": 0.0208,
"step": 5475
},
{
"epoch": 3.0485,
"grad_norm": 1.5230340957641602,
"learning_rate": 2.085e-06,
"loss": 0.0216,
"step": 5500
},
{
"epoch": 3.0485,
"eval_loss": 0.1619918942451477,
"eval_runtime": 2437.6868,
"eval_samples_per_second": 5.591,
"eval_steps_per_second": 0.699,
"eval_wer": 9.08424639964821,
"step": 5500
},
{
"epoch": 3.051625,
"grad_norm": 1.907436728477478,
"learning_rate": 2.0641666666666667e-06,
"loss": 0.0224,
"step": 5525
},
{
"epoch": 3.05475,
"grad_norm": 1.5222604274749756,
"learning_rate": 2.0433333333333334e-06,
"loss": 0.0197,
"step": 5550
},
{
"epoch": 3.057875,
"grad_norm": 1.5284624099731445,
"learning_rate": 2.0225e-06,
"loss": 0.0152,
"step": 5575
},
{
"epoch": 3.061,
"grad_norm": 0.7098265886306763,
"learning_rate": 2.0016666666666664e-06,
"loss": 0.019,
"step": 5600
},
{
"epoch": 3.064125,
"grad_norm": 2.1706318855285645,
"learning_rate": 1.9808333333333336e-06,
"loss": 0.0189,
"step": 5625
},
{
"epoch": 3.06725,
"grad_norm": 2.888962745666504,
"learning_rate": 1.96e-06,
"loss": 0.0201,
"step": 5650
},
{
"epoch": 3.070375,
"grad_norm": 3.0322179794311523,
"learning_rate": 1.939166666666667e-06,
"loss": 0.0211,
"step": 5675
},
{
"epoch": 3.0735,
"grad_norm": 3.066394329071045,
"learning_rate": 1.9183333333333333e-06,
"loss": 0.0253,
"step": 5700
},
{
"epoch": 3.076625,
"grad_norm": 2.5032601356506348,
"learning_rate": 1.8975e-06,
"loss": 0.0236,
"step": 5725
},
{
"epoch": 3.07975,
"grad_norm": 1.5625773668289185,
"learning_rate": 1.8766666666666668e-06,
"loss": 0.0193,
"step": 5750
},
{
"epoch": 3.082875,
"grad_norm": 1.7981406450271606,
"learning_rate": 1.8558333333333333e-06,
"loss": 0.0157,
"step": 5775
},
{
"epoch": 3.086,
"grad_norm": 1.1411957740783691,
"learning_rate": 1.8350000000000002e-06,
"loss": 0.0217,
"step": 5800
},
{
"epoch": 3.089125,
"grad_norm": 1.1639596223831177,
"learning_rate": 1.8141666666666667e-06,
"loss": 0.0239,
"step": 5825
},
{
"epoch": 3.09225,
"grad_norm": 0.7168381810188293,
"learning_rate": 1.7933333333333332e-06,
"loss": 0.0218,
"step": 5850
},
{
"epoch": 3.095375,
"grad_norm": 1.1308009624481201,
"learning_rate": 1.7725000000000002e-06,
"loss": 0.0214,
"step": 5875
},
{
"epoch": 3.0985,
"grad_norm": 2.1142430305480957,
"learning_rate": 1.7516666666666667e-06,
"loss": 0.0155,
"step": 5900
},
{
"epoch": 3.101625,
"grad_norm": 1.479252815246582,
"learning_rate": 1.7308333333333332e-06,
"loss": 0.0176,
"step": 5925
},
{
"epoch": 3.10475,
"grad_norm": 1.3254590034484863,
"learning_rate": 1.7100000000000001e-06,
"loss": 0.0144,
"step": 5950
},
{
"epoch": 3.107875,
"grad_norm": 2.1925458908081055,
"learning_rate": 1.6891666666666667e-06,
"loss": 0.0162,
"step": 5975
},
{
"epoch": 3.111,
"grad_norm": 1.774483561515808,
"learning_rate": 1.6683333333333336e-06,
"loss": 0.017,
"step": 6000
},
{
"epoch": 3.111,
"eval_loss": 0.17044013738632202,
"eval_runtime": 2431.1861,
"eval_samples_per_second": 5.606,
"eval_steps_per_second": 0.701,
"eval_wer": 9.097988200373777,
"step": 6000
},
{
"epoch": 3.114125,
"grad_norm": 3.372814893722534,
"learning_rate": 1.6483333333333334e-06,
"loss": 0.0216,
"step": 6025
},
{
"epoch": 3.11725,
"grad_norm": 0.39716529846191406,
"learning_rate": 1.6275000000000003e-06,
"loss": 0.0161,
"step": 6050
},
{
"epoch": 3.120375,
"grad_norm": 1.4220778942108154,
"learning_rate": 1.6066666666666668e-06,
"loss": 0.0211,
"step": 6075
},
{
"epoch": 3.1235,
"grad_norm": 1.2959835529327393,
"learning_rate": 1.5858333333333333e-06,
"loss": 0.0187,
"step": 6100
},
{
"epoch": 3.1266249999999998,
"grad_norm": 1.9399360418319702,
"learning_rate": 1.565e-06,
"loss": 0.0123,
"step": 6125
},
{
"epoch": 3.12975,
"grad_norm": 2.898085594177246,
"learning_rate": 1.5441666666666668e-06,
"loss": 0.0197,
"step": 6150
},
{
"epoch": 3.132875,
"grad_norm": 3.642364263534546,
"learning_rate": 1.5233333333333333e-06,
"loss": 0.0162,
"step": 6175
},
{
"epoch": 3.136,
"grad_norm": 1.7888002395629883,
"learning_rate": 1.5025e-06,
"loss": 0.0164,
"step": 6200
},
{
"epoch": 3.139125,
"grad_norm": 2.3871753215789795,
"learning_rate": 1.4816666666666667e-06,
"loss": 0.0175,
"step": 6225
},
{
"epoch": 3.1422499999999998,
"grad_norm": 1.4263437986373901,
"learning_rate": 1.4608333333333333e-06,
"loss": 0.0152,
"step": 6250
},
{
"epoch": 3.145375,
"grad_norm": 2.174880027770996,
"learning_rate": 1.44e-06,
"loss": 0.0172,
"step": 6275
},
{
"epoch": 3.1485,
"grad_norm": 0.9558664560317993,
"learning_rate": 1.4191666666666667e-06,
"loss": 0.0172,
"step": 6300
},
{
"epoch": 3.151625,
"grad_norm": 2.228374719619751,
"learning_rate": 1.3983333333333334e-06,
"loss": 0.0173,
"step": 6325
},
{
"epoch": 3.15475,
"grad_norm": 1.3473858833312988,
"learning_rate": 1.3775000000000002e-06,
"loss": 0.0211,
"step": 6350
},
{
"epoch": 3.1578749999999998,
"grad_norm": 1.575217843055725,
"learning_rate": 1.3566666666666667e-06,
"loss": 0.0195,
"step": 6375
},
{
"epoch": 3.161,
"grad_norm": 1.4997564554214478,
"learning_rate": 1.3358333333333334e-06,
"loss": 0.0174,
"step": 6400
},
{
"epoch": 3.164125,
"grad_norm": 1.6651334762573242,
"learning_rate": 1.3150000000000001e-06,
"loss": 0.0178,
"step": 6425
},
{
"epoch": 3.16725,
"grad_norm": 1.9218391180038452,
"learning_rate": 1.2941666666666668e-06,
"loss": 0.0168,
"step": 6450
},
{
"epoch": 3.170375,
"grad_norm": 1.322709560394287,
"learning_rate": 1.2733333333333334e-06,
"loss": 0.0155,
"step": 6475
},
{
"epoch": 3.1734999999999998,
"grad_norm": 0.7265995144844055,
"learning_rate": 1.2525e-06,
"loss": 0.0174,
"step": 6500
},
{
"epoch": 3.1734999999999998,
"eval_loss": 0.16809040307998657,
"eval_runtime": 2425.0716,
"eval_samples_per_second": 5.62,
"eval_steps_per_second": 0.703,
"eval_wer": 9.072336839019385,
"step": 6500
},
{
"epoch": 3.176625,
"grad_norm": 3.6835756301879883,
"learning_rate": 1.2316666666666668e-06,
"loss": 0.0177,
"step": 6525
},
{
"epoch": 3.17975,
"grad_norm": 1.7619342803955078,
"learning_rate": 1.2108333333333335e-06,
"loss": 0.0212,
"step": 6550
},
{
"epoch": 3.182875,
"grad_norm": 1.547814130783081,
"learning_rate": 1.19e-06,
"loss": 0.0213,
"step": 6575
},
{
"epoch": 3.186,
"grad_norm": 2.0077638626098633,
"learning_rate": 1.1691666666666668e-06,
"loss": 0.016,
"step": 6600
},
{
"epoch": 3.1891249999999998,
"grad_norm": 1.806665062904358,
"learning_rate": 1.1483333333333333e-06,
"loss": 0.0165,
"step": 6625
},
{
"epoch": 3.19225,
"grad_norm": 1.9576735496520996,
"learning_rate": 1.1283333333333333e-06,
"loss": 0.0173,
"step": 6650
},
{
"epoch": 3.195375,
"grad_norm": 1.992625117301941,
"learning_rate": 1.1075e-06,
"loss": 0.0179,
"step": 6675
},
{
"epoch": 3.1985,
"grad_norm": 1.9625897407531738,
"learning_rate": 1.0866666666666667e-06,
"loss": 0.0174,
"step": 6700
},
{
"epoch": 3.201625,
"grad_norm": 1.079950213432312,
"learning_rate": 1.0658333333333334e-06,
"loss": 0.0189,
"step": 6725
},
{
"epoch": 3.2047499999999998,
"grad_norm": 1.7856156826019287,
"learning_rate": 1.045e-06,
"loss": 0.0179,
"step": 6750
},
{
"epoch": 3.207875,
"grad_norm": 0.44674980640411377,
"learning_rate": 1.0241666666666667e-06,
"loss": 0.0185,
"step": 6775
},
{
"epoch": 3.211,
"grad_norm": 2.1849780082702637,
"learning_rate": 1.0033333333333334e-06,
"loss": 0.0208,
"step": 6800
},
{
"epoch": 4.001125,
"grad_norm": 1.4259858131408691,
"learning_rate": 9.825000000000001e-07,
"loss": 0.0162,
"step": 6825
},
{
"epoch": 4.00425,
"grad_norm": 0.5507416129112244,
"learning_rate": 9.616666666666668e-07,
"loss": 0.0099,
"step": 6850
},
{
"epoch": 4.007375,
"grad_norm": 1.9662590026855469,
"learning_rate": 9.408333333333334e-07,
"loss": 0.0117,
"step": 6875
},
{
"epoch": 4.0105,
"grad_norm": 1.9439060688018799,
"learning_rate": 9.2e-07,
"loss": 0.0114,
"step": 6900
},
{
"epoch": 4.013625,
"grad_norm": 1.266473412513733,
"learning_rate": 8.991666666666667e-07,
"loss": 0.0085,
"step": 6925
},
{
"epoch": 4.01675,
"grad_norm": 1.4318881034851074,
"learning_rate": 8.783333333333334e-07,
"loss": 0.0095,
"step": 6950
},
{
"epoch": 4.019875,
"grad_norm": 1.7301366329193115,
"learning_rate": 8.574999999999999e-07,
"loss": 0.01,
"step": 6975
},
{
"epoch": 4.023,
"grad_norm": 0.7250347137451172,
"learning_rate": 8.366666666666667e-07,
"loss": 0.0098,
"step": 7000
},
{
"epoch": 4.023,
"eval_loss": 0.17248913645744324,
"eval_runtime": 2424.7286,
"eval_samples_per_second": 5.621,
"eval_steps_per_second": 0.703,
"eval_wer": 8.862545347942394,
"step": 7000
},
{
"epoch": 4.026125,
"grad_norm": 0.9742090702056885,
"learning_rate": 8.158333333333334e-07,
"loss": 0.0083,
"step": 7025
},
{
"epoch": 4.02925,
"grad_norm": 1.966017723083496,
"learning_rate": 7.950000000000001e-07,
"loss": 0.0098,
"step": 7050
},
{
"epoch": 4.032375,
"grad_norm": 0.3238462209701538,
"learning_rate": 7.741666666666667e-07,
"loss": 0.0106,
"step": 7075
},
{
"epoch": 4.0355,
"grad_norm": 1.1980866193771362,
"learning_rate": 7.533333333333334e-07,
"loss": 0.0095,
"step": 7100
},
{
"epoch": 4.038625,
"grad_norm": 1.5639567375183105,
"learning_rate": 7.325e-07,
"loss": 0.0079,
"step": 7125
},
{
"epoch": 4.04175,
"grad_norm": 2.4864511489868164,
"learning_rate": 7.116666666666667e-07,
"loss": 0.0081,
"step": 7150
},
{
"epoch": 4.044875,
"grad_norm": 0.3260515332221985,
"learning_rate": 6.908333333333333e-07,
"loss": 0.0078,
"step": 7175
},
{
"epoch": 4.048,
"grad_norm": 1.6305910348892212,
"learning_rate": 6.7e-07,
"loss": 0.0093,
"step": 7200
},
{
"epoch": 4.051125,
"grad_norm": 0.6141969561576843,
"learning_rate": 6.491666666666667e-07,
"loss": 0.0082,
"step": 7225
},
{
"epoch": 4.05425,
"grad_norm": 1.9699019193649292,
"learning_rate": 6.283333333333334e-07,
"loss": 0.0089,
"step": 7250
},
{
"epoch": 4.057375,
"grad_norm": 0.2788224518299103,
"learning_rate": 6.075e-07,
"loss": 0.0053,
"step": 7275
},
{
"epoch": 4.0605,
"grad_norm": 1.0774401426315308,
"learning_rate": 5.866666666666667e-07,
"loss": 0.0074,
"step": 7300
},
{
"epoch": 4.063625,
"grad_norm": 0.2802826166152954,
"learning_rate": 5.658333333333334e-07,
"loss": 0.007,
"step": 7325
},
{
"epoch": 4.06675,
"grad_norm": 0.459989458322525,
"learning_rate": 5.450000000000001e-07,
"loss": 0.0061,
"step": 7350
},
{
"epoch": 4.069875,
"grad_norm": 1.6869885921478271,
"learning_rate": 5.241666666666667e-07,
"loss": 0.007,
"step": 7375
},
{
"epoch": 4.073,
"grad_norm": 1.150252103805542,
"learning_rate": 5.033333333333333e-07,
"loss": 0.009,
"step": 7400
},
{
"epoch": 4.076125,
"grad_norm": 0.7096041440963745,
"learning_rate": 4.825e-07,
"loss": 0.0074,
"step": 7425
},
{
"epoch": 4.07925,
"grad_norm": 1.9114930629730225,
"learning_rate": 4.6166666666666666e-07,
"loss": 0.0081,
"step": 7450
},
{
"epoch": 4.082375,
"grad_norm": 0.41340845823287964,
"learning_rate": 4.408333333333334e-07,
"loss": 0.0078,
"step": 7475
},
{
"epoch": 4.0855,
"grad_norm": 1.241665005683899,
"learning_rate": 4.2e-07,
"loss": 0.0076,
"step": 7500
},
{
"epoch": 4.0855,
"eval_loss": 0.17651478946208954,
"eval_runtime": 2432.1699,
"eval_samples_per_second": 5.604,
"eval_steps_per_second": 0.701,
"eval_wer": 8.83506174649126,
"step": 7500
},
{
"epoch": 4.088625,
"grad_norm": 0.6228423714637756,
"learning_rate": 3.991666666666667e-07,
"loss": 0.0075,
"step": 7525
},
{
"epoch": 4.09175,
"grad_norm": 0.5548863410949707,
"learning_rate": 3.7833333333333335e-07,
"loss": 0.007,
"step": 7550
},
{
"epoch": 4.094875,
"grad_norm": 0.33007875084877014,
"learning_rate": 3.575e-07,
"loss": 0.0058,
"step": 7575
},
{
"epoch": 4.098,
"grad_norm": 1.3314837217330933,
"learning_rate": 3.366666666666667e-07,
"loss": 0.0068,
"step": 7600
},
{
"epoch": 4.101125,
"grad_norm": 2.230480909347534,
"learning_rate": 3.1583333333333336e-07,
"loss": 0.007,
"step": 7625
},
{
"epoch": 4.10425,
"grad_norm": 0.3246554136276245,
"learning_rate": 2.95e-07,
"loss": 0.0058,
"step": 7650
},
{
"epoch": 4.107375,
"grad_norm": 3.8842251300811768,
"learning_rate": 2.7416666666666665e-07,
"loss": 0.0071,
"step": 7675
},
{
"epoch": 4.1105,
"grad_norm": 0.27049753069877625,
"learning_rate": 2.533333333333333e-07,
"loss": 0.0068,
"step": 7700
},
{
"epoch": 4.113625,
"grad_norm": 1.5919678211212158,
"learning_rate": 2.325e-07,
"loss": 0.009,
"step": 7725
},
{
"epoch": 4.11675,
"grad_norm": 1.0917800664901733,
"learning_rate": 2.116666666666667e-07,
"loss": 0.0083,
"step": 7750
},
{
"epoch": 4.119875,
"grad_norm": 1.6236002445220947,
"learning_rate": 1.9083333333333334e-07,
"loss": 0.0077,
"step": 7775
},
{
"epoch": 4.123,
"grad_norm": 0.34154245257377625,
"learning_rate": 1.7e-07,
"loss": 0.0064,
"step": 7800
},
{
"epoch": 4.126125,
"grad_norm": 0.7562180757522583,
"learning_rate": 1.4916666666666669e-07,
"loss": 0.0073,
"step": 7825
},
{
"epoch": 4.12925,
"grad_norm": 1.4198355674743652,
"learning_rate": 1.2833333333333333e-07,
"loss": 0.0051,
"step": 7850
},
{
"epoch": 4.132375,
"grad_norm": 0.38768094778060913,
"learning_rate": 1.075e-07,
"loss": 0.0073,
"step": 7875
},
{
"epoch": 4.1355,
"grad_norm": 2.1387102603912354,
"learning_rate": 8.666666666666666e-08,
"loss": 0.0078,
"step": 7900
},
{
"epoch": 4.138625,
"grad_norm": 0.7683693170547485,
"learning_rate": 6.583333333333333e-08,
"loss": 0.006,
"step": 7925
},
{
"epoch": 4.14175,
"grad_norm": 0.40976452827453613,
"learning_rate": 4.5e-08,
"loss": 0.0059,
"step": 7950
},
{
"epoch": 4.144875,
"grad_norm": 0.3620973229408264,
"learning_rate": 2.4166666666666668e-08,
"loss": 0.0054,
"step": 7975
},
{
"epoch": 4.148,
"grad_norm": 0.28266406059265137,
"learning_rate": 3.333333333333334e-09,
"loss": 0.007,
"step": 8000
},
{
"epoch": 4.148,
"eval_loss": 0.17873740196228027,
"eval_runtime": 2435.5612,
"eval_samples_per_second": 5.596,
"eval_steps_per_second": 0.7,
"eval_wer": 8.8020814247499,
"step": 8000
},
{
"epoch": 4.148,
"step": 8000,
"total_flos": 1.3062109848403968e+20,
"train_loss": 0.11351343880966305,
"train_runtime": 52381.6915,
"train_samples_per_second": 2.444,
"train_steps_per_second": 0.153
}
],
"logging_steps": 25,
"max_steps": 8000,
"num_input_tokens_seen": 0,
"num_train_epochs": 9223372036854775807,
"save_steps": 1000,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.3062109848403968e+20,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}