problem79_model / trainer_state.json
aadityap's picture
Model save
5b72fa8 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.0,
"eval_steps": 500,
"global_step": 300,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.006666666666666667,
"grad_norm": 0.03977673799137924,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.0697,
"step": 1
},
{
"epoch": 0.013333333333333334,
"grad_norm": 0.0065301500769442775,
"learning_rate": 6.666666666666667e-06,
"loss": 0.0061,
"step": 2
},
{
"epoch": 0.02,
"grad_norm": 0.014819135856720608,
"learning_rate": 1e-05,
"loss": 0.0293,
"step": 3
},
{
"epoch": 0.02666666666666667,
"grad_norm": 0.039267882945525356,
"learning_rate": 1.3333333333333333e-05,
"loss": 0.1063,
"step": 4
},
{
"epoch": 0.03333333333333333,
"grad_norm": 0.012252458879639674,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.0157,
"step": 5
},
{
"epoch": 0.04,
"grad_norm": 0.0056279562533792255,
"learning_rate": 2e-05,
"loss": 0.0045,
"step": 6
},
{
"epoch": 0.04666666666666667,
"grad_norm": 0.023813548160984865,
"learning_rate": 2.3333333333333336e-05,
"loss": 0.0325,
"step": 7
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.03607155998907514,
"learning_rate": 2.6666666666666667e-05,
"loss": 0.0277,
"step": 8
},
{
"epoch": 0.06,
"grad_norm": 0.007736905400320296,
"learning_rate": 3e-05,
"loss": 0.01,
"step": 9
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.012118116891684516,
"learning_rate": 3.3333333333333335e-05,
"loss": 0.0148,
"step": 10
},
{
"epoch": 0.07333333333333333,
"grad_norm": 0.039873886202707536,
"learning_rate": 3.6666666666666666e-05,
"loss": 0.0756,
"step": 11
},
{
"epoch": 0.08,
"grad_norm": 0.011527136005430448,
"learning_rate": 4e-05,
"loss": 0.0063,
"step": 12
},
{
"epoch": 0.08666666666666667,
"grad_norm": 0.009636482269021205,
"learning_rate": 4.3333333333333334e-05,
"loss": 0.0237,
"step": 13
},
{
"epoch": 0.09333333333333334,
"grad_norm": 0.007735492887043595,
"learning_rate": 4.666666666666667e-05,
"loss": 0.0126,
"step": 14
},
{
"epoch": 0.1,
"grad_norm": 0.014890543860786472,
"learning_rate": 5e-05,
"loss": 0.0236,
"step": 15
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.025323327290843564,
"learning_rate": 5.333333333333333e-05,
"loss": 0.0259,
"step": 16
},
{
"epoch": 0.11333333333333333,
"grad_norm": 0.009293163522717605,
"learning_rate": 5.666666666666667e-05,
"loss": 0.0063,
"step": 17
},
{
"epoch": 0.12,
"grad_norm": 0.02916025589916925,
"learning_rate": 6e-05,
"loss": 0.0389,
"step": 18
},
{
"epoch": 0.12666666666666668,
"grad_norm": 0.010144696980112122,
"learning_rate": 6.333333333333333e-05,
"loss": 0.0098,
"step": 19
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.008862578235702937,
"learning_rate": 6.666666666666667e-05,
"loss": 0.0155,
"step": 20
},
{
"epoch": 0.14,
"grad_norm": 0.05104184908379062,
"learning_rate": 7e-05,
"loss": 0.0347,
"step": 21
},
{
"epoch": 0.14666666666666667,
"grad_norm": 0.01617542383781755,
"learning_rate": 7.333333333333333e-05,
"loss": 0.0233,
"step": 22
},
{
"epoch": 0.15333333333333332,
"grad_norm": 0.024671375082196686,
"learning_rate": 7.666666666666667e-05,
"loss": 0.0237,
"step": 23
},
{
"epoch": 0.16,
"grad_norm": 0.012410254292339285,
"learning_rate": 8e-05,
"loss": 0.0125,
"step": 24
},
{
"epoch": 0.16666666666666666,
"grad_norm": 0.019740577759809464,
"learning_rate": 8.333333333333334e-05,
"loss": 0.0194,
"step": 25
},
{
"epoch": 0.17333333333333334,
"grad_norm": 0.012703556991820871,
"learning_rate": 8.666666666666667e-05,
"loss": 0.0094,
"step": 26
},
{
"epoch": 0.18,
"grad_norm": 0.016724171438981424,
"learning_rate": 9e-05,
"loss": 0.0117,
"step": 27
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.010375834313224863,
"learning_rate": 9.333333333333334e-05,
"loss": 0.0059,
"step": 28
},
{
"epoch": 0.19333333333333333,
"grad_norm": 0.010565764517732947,
"learning_rate": 9.666666666666667e-05,
"loss": 0.0115,
"step": 29
},
{
"epoch": 0.2,
"grad_norm": 0.01720149729026483,
"learning_rate": 0.0001,
"loss": 0.0225,
"step": 30
},
{
"epoch": 0.20666666666666667,
"grad_norm": 0.0077083290888715,
"learning_rate": 9.999661540018812e-05,
"loss": 0.0031,
"step": 31
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.006002362694509026,
"learning_rate": 9.998646205897309e-05,
"loss": 0.0062,
"step": 32
},
{
"epoch": 0.22,
"grad_norm": 0.029037792591552532,
"learning_rate": 9.99695413509548e-05,
"loss": 0.0083,
"step": 33
},
{
"epoch": 0.22666666666666666,
"grad_norm": 0.022298993545235585,
"learning_rate": 9.994585556692624e-05,
"loss": 0.0058,
"step": 34
},
{
"epoch": 0.23333333333333334,
"grad_norm": 0.021661859171059405,
"learning_rate": 9.991540791356342e-05,
"loss": 0.0216,
"step": 35
},
{
"epoch": 0.24,
"grad_norm": 0.026084910790291866,
"learning_rate": 9.987820251299122e-05,
"loss": 0.0156,
"step": 36
},
{
"epoch": 0.24666666666666667,
"grad_norm": 0.00394792088190261,
"learning_rate": 9.983424440222531e-05,
"loss": 0.0016,
"step": 37
},
{
"epoch": 0.25333333333333335,
"grad_norm": 0.01661401213263953,
"learning_rate": 9.978353953249022e-05,
"loss": 0.0167,
"step": 38
},
{
"epoch": 0.26,
"grad_norm": 0.059437983837096614,
"learning_rate": 9.972609476841367e-05,
"loss": 0.0092,
"step": 39
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.020003667087639856,
"learning_rate": 9.966191788709716e-05,
"loss": 0.0077,
"step": 40
},
{
"epoch": 0.2733333333333333,
"grad_norm": 0.006463867364665084,
"learning_rate": 9.959101757706308e-05,
"loss": 0.0032,
"step": 41
},
{
"epoch": 0.28,
"grad_norm": 0.0038599010866305367,
"learning_rate": 9.951340343707852e-05,
"loss": 0.0034,
"step": 42
},
{
"epoch": 0.2866666666666667,
"grad_norm": 0.007874248964875598,
"learning_rate": 9.942908597485558e-05,
"loss": 0.0049,
"step": 43
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.006279707603255696,
"learning_rate": 9.933807660562898e-05,
"loss": 0.0045,
"step": 44
},
{
"epoch": 0.3,
"grad_norm": 0.007087320501521553,
"learning_rate": 9.924038765061042e-05,
"loss": 0.003,
"step": 45
},
{
"epoch": 0.30666666666666664,
"grad_norm": 0.022491932320332614,
"learning_rate": 9.913603233532067e-05,
"loss": 0.0134,
"step": 46
},
{
"epoch": 0.31333333333333335,
"grad_norm": 0.005160259749805722,
"learning_rate": 9.902502478779896e-05,
"loss": 0.002,
"step": 47
},
{
"epoch": 0.32,
"grad_norm": 0.02177964763235288,
"learning_rate": 9.890738003669029e-05,
"loss": 0.0117,
"step": 48
},
{
"epoch": 0.32666666666666666,
"grad_norm": 0.013474504980735864,
"learning_rate": 9.878311400921072e-05,
"loss": 0.0066,
"step": 49
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.00946656594425562,
"learning_rate": 9.865224352899119e-05,
"loss": 0.0039,
"step": 50
},
{
"epoch": 0.34,
"grad_norm": 0.026641316284968547,
"learning_rate": 9.851478631379982e-05,
"loss": 0.0068,
"step": 51
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.009886930795375747,
"learning_rate": 9.837076097314319e-05,
"loss": 0.0023,
"step": 52
},
{
"epoch": 0.35333333333333333,
"grad_norm": 0.007365072683653581,
"learning_rate": 9.822018700574695e-05,
"loss": 0.0061,
"step": 53
},
{
"epoch": 0.36,
"grad_norm": 0.02066585877234035,
"learning_rate": 9.806308479691595e-05,
"loss": 0.005,
"step": 54
},
{
"epoch": 0.36666666666666664,
"grad_norm": 0.00294436341805414,
"learning_rate": 9.789947561577445e-05,
"loss": 0.0008,
"step": 55
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.003682367501648306,
"learning_rate": 9.77293816123866e-05,
"loss": 0.0009,
"step": 56
},
{
"epoch": 0.38,
"grad_norm": 0.007267109316280988,
"learning_rate": 9.755282581475769e-05,
"loss": 0.0023,
"step": 57
},
{
"epoch": 0.38666666666666666,
"grad_norm": 0.00892227426470675,
"learning_rate": 9.736983212571646e-05,
"loss": 0.0024,
"step": 58
},
{
"epoch": 0.3933333333333333,
"grad_norm": 0.02037847807670291,
"learning_rate": 9.718042531967918e-05,
"loss": 0.0072,
"step": 59
},
{
"epoch": 0.4,
"grad_norm": 0.0010079515868932766,
"learning_rate": 9.698463103929542e-05,
"loss": 0.0002,
"step": 60
},
{
"epoch": 0.4066666666666667,
"grad_norm": 0.02545538320643381,
"learning_rate": 9.678247579197657e-05,
"loss": 0.0161,
"step": 61
},
{
"epoch": 0.41333333333333333,
"grad_norm": 0.0009521273660328182,
"learning_rate": 9.657398694630712e-05,
"loss": 0.0003,
"step": 62
},
{
"epoch": 0.42,
"grad_norm": 0.0012660501591775387,
"learning_rate": 9.635919272833938e-05,
"loss": 0.0003,
"step": 63
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.012909132001859391,
"learning_rate": 9.613812221777212e-05,
"loss": 0.006,
"step": 64
},
{
"epoch": 0.43333333333333335,
"grad_norm": 0.021404624061672838,
"learning_rate": 9.591080534401371e-05,
"loss": 0.0011,
"step": 65
},
{
"epoch": 0.44,
"grad_norm": 0.003650648333180561,
"learning_rate": 9.567727288213005e-05,
"loss": 0.0004,
"step": 66
},
{
"epoch": 0.44666666666666666,
"grad_norm": 0.014034928154915733,
"learning_rate": 9.543755644867822e-05,
"loss": 0.0044,
"step": 67
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.0021441625030309474,
"learning_rate": 9.519168849742604e-05,
"loss": 0.0006,
"step": 68
},
{
"epoch": 0.46,
"grad_norm": 0.0010045070930458345,
"learning_rate": 9.493970231495835e-05,
"loss": 0.0002,
"step": 69
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.008142574612054095,
"learning_rate": 9.468163201617062e-05,
"loss": 0.0029,
"step": 70
},
{
"epoch": 0.47333333333333333,
"grad_norm": 0.03292094789623389,
"learning_rate": 9.441751253965021e-05,
"loss": 0.0045,
"step": 71
},
{
"epoch": 0.48,
"grad_norm": 0.011912626578576588,
"learning_rate": 9.414737964294636e-05,
"loss": 0.0017,
"step": 72
},
{
"epoch": 0.4866666666666667,
"grad_norm": 0.0017861845091254518,
"learning_rate": 9.38712698977291e-05,
"loss": 0.0004,
"step": 73
},
{
"epoch": 0.49333333333333335,
"grad_norm": 0.011731011044533848,
"learning_rate": 9.358922068483812e-05,
"loss": 0.0045,
"step": 74
},
{
"epoch": 0.5,
"grad_norm": 0.004854041456567811,
"learning_rate": 9.330127018922194e-05,
"loss": 0.0004,
"step": 75
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.02327584221640396,
"learning_rate": 9.300745739476829e-05,
"loss": 0.0007,
"step": 76
},
{
"epoch": 0.5133333333333333,
"grad_norm": 0.0028537622172145932,
"learning_rate": 9.270782207902629e-05,
"loss": 0.0004,
"step": 77
},
{
"epoch": 0.52,
"grad_norm": 0.09015330601056638,
"learning_rate": 9.24024048078213e-05,
"loss": 0.0147,
"step": 78
},
{
"epoch": 0.5266666666666666,
"grad_norm": 0.0008191391307044869,
"learning_rate": 9.209124692976287e-05,
"loss": 0.0001,
"step": 79
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.0006353783948769038,
"learning_rate": 9.177439057064683e-05,
"loss": 0.0001,
"step": 80
},
{
"epoch": 0.54,
"grad_norm": 0.043611140303823195,
"learning_rate": 9.145187862775209e-05,
"loss": 0.0183,
"step": 81
},
{
"epoch": 0.5466666666666666,
"grad_norm": 0.006962092601124405,
"learning_rate": 9.112375476403312e-05,
"loss": 0.0047,
"step": 82
},
{
"epoch": 0.5533333333333333,
"grad_norm": 0.0014787739550455486,
"learning_rate": 9.079006340220862e-05,
"loss": 0.0006,
"step": 83
},
{
"epoch": 0.56,
"grad_norm": 0.0017343398245412518,
"learning_rate": 9.045084971874738e-05,
"loss": 0.0001,
"step": 84
},
{
"epoch": 0.5666666666666667,
"grad_norm": 0.01095035391870999,
"learning_rate": 9.01061596377522e-05,
"loss": 0.0015,
"step": 85
},
{
"epoch": 0.5733333333333334,
"grad_norm": 0.03244878753163543,
"learning_rate": 8.97560398247424e-05,
"loss": 0.0095,
"step": 86
},
{
"epoch": 0.58,
"grad_norm": 0.0006196137955220628,
"learning_rate": 8.940053768033609e-05,
"loss": 0.0001,
"step": 87
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.0007941815331210884,
"learning_rate": 8.903970133383297e-05,
"loss": 0.0002,
"step": 88
},
{
"epoch": 0.5933333333333334,
"grad_norm": 0.0012925903487581677,
"learning_rate": 8.86735796366982e-05,
"loss": 0.0002,
"step": 89
},
{
"epoch": 0.6,
"grad_norm": 0.039861557503553004,
"learning_rate": 8.83022221559489e-05,
"loss": 0.0036,
"step": 90
},
{
"epoch": 0.6066666666666667,
"grad_norm": 0.005534195729789121,
"learning_rate": 8.792567916744346e-05,
"loss": 0.001,
"step": 91
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.03897134837746716,
"learning_rate": 8.754400164907497e-05,
"loss": 0.0045,
"step": 92
},
{
"epoch": 0.62,
"grad_norm": 0.0010919767160943903,
"learning_rate": 8.715724127386972e-05,
"loss": 0.0002,
"step": 93
},
{
"epoch": 0.6266666666666667,
"grad_norm": 0.0070978829743967254,
"learning_rate": 8.676545040299145e-05,
"loss": 0.0022,
"step": 94
},
{
"epoch": 0.6333333333333333,
"grad_norm": 0.00036329441861054316,
"learning_rate": 8.636868207865244e-05,
"loss": 0.0001,
"step": 95
},
{
"epoch": 0.64,
"grad_norm": 0.014407696590741724,
"learning_rate": 8.596699001693255e-05,
"loss": 0.0015,
"step": 96
},
{
"epoch": 0.6466666666666666,
"grad_norm": 0.0030471899716685165,
"learning_rate": 8.556042860050687e-05,
"loss": 0.0007,
"step": 97
},
{
"epoch": 0.6533333333333333,
"grad_norm": 0.003464467903049435,
"learning_rate": 8.51490528712831e-05,
"loss": 0.0006,
"step": 98
},
{
"epoch": 0.66,
"grad_norm": 0.11138074631187647,
"learning_rate": 8.473291852294987e-05,
"loss": 0.035,
"step": 99
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.0013202940649701589,
"learning_rate": 8.43120818934367e-05,
"loss": 0.0003,
"step": 100
},
{
"epoch": 0.6733333333333333,
"grad_norm": 0.0012280879879575937,
"learning_rate": 8.388659995728663e-05,
"loss": 0.0003,
"step": 101
},
{
"epoch": 0.68,
"grad_norm": 0.0005893246915399455,
"learning_rate": 8.345653031794292e-05,
"loss": 0.0002,
"step": 102
},
{
"epoch": 0.6866666666666666,
"grad_norm": 0.008273619998741781,
"learning_rate": 8.302193119995039e-05,
"loss": 0.0013,
"step": 103
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.010057094190166717,
"learning_rate": 8.258286144107276e-05,
"loss": 0.0014,
"step": 104
},
{
"epoch": 0.7,
"grad_norm": 0.020291817971856006,
"learning_rate": 8.213938048432697e-05,
"loss": 0.004,
"step": 105
},
{
"epoch": 0.7066666666666667,
"grad_norm": 0.006370988993567442,
"learning_rate": 8.169154836993551e-05,
"loss": 0.0011,
"step": 106
},
{
"epoch": 0.7133333333333334,
"grad_norm": 0.00021592458235370992,
"learning_rate": 8.1239425727198e-05,
"loss": 0.0,
"step": 107
},
{
"epoch": 0.72,
"grad_norm": 0.018475989690273927,
"learning_rate": 8.07830737662829e-05,
"loss": 0.0043,
"step": 108
},
{
"epoch": 0.7266666666666667,
"grad_norm": 0.0047922311203006515,
"learning_rate": 8.032255426994069e-05,
"loss": 0.0007,
"step": 109
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.0056305557958139405,
"learning_rate": 7.985792958513931e-05,
"loss": 0.0007,
"step": 110
},
{
"epoch": 0.74,
"grad_norm": 0.009207527429328918,
"learning_rate": 7.938926261462366e-05,
"loss": 0.0016,
"step": 111
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.0006047055295440849,
"learning_rate": 7.891661680839932e-05,
"loss": 0.0001,
"step": 112
},
{
"epoch": 0.7533333333333333,
"grad_norm": 0.018112668500209515,
"learning_rate": 7.844005615514259e-05,
"loss": 0.0043,
"step": 113
},
{
"epoch": 0.76,
"grad_norm": 0.019858934965056797,
"learning_rate": 7.795964517353735e-05,
"loss": 0.002,
"step": 114
},
{
"epoch": 0.7666666666666667,
"grad_norm": 0.00018747235763939927,
"learning_rate": 7.74754489035403e-05,
"loss": 0.0,
"step": 115
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.0002527942047071109,
"learning_rate": 7.698753289757565e-05,
"loss": 0.0,
"step": 116
},
{
"epoch": 0.78,
"grad_norm": 0.0076352245820117785,
"learning_rate": 7.649596321166024e-05,
"loss": 0.0018,
"step": 117
},
{
"epoch": 0.7866666666666666,
"grad_norm": 0.021682098386230916,
"learning_rate": 7.600080639646077e-05,
"loss": 0.0034,
"step": 118
},
{
"epoch": 0.7933333333333333,
"grad_norm": 0.0003418675361532699,
"learning_rate": 7.550212948828377e-05,
"loss": 0.0001,
"step": 119
},
{
"epoch": 0.8,
"grad_norm": 0.01327861183877304,
"learning_rate": 7.500000000000001e-05,
"loss": 0.0037,
"step": 120
},
{
"epoch": 0.8066666666666666,
"grad_norm": 0.004035480575877641,
"learning_rate": 7.449448591190435e-05,
"loss": 0.0004,
"step": 121
},
{
"epoch": 0.8133333333333334,
"grad_norm": 0.02462494127782071,
"learning_rate": 7.398565566251232e-05,
"loss": 0.0015,
"step": 122
},
{
"epoch": 0.82,
"grad_norm": 0.00028929080031529303,
"learning_rate": 7.347357813929454e-05,
"loss": 0.0,
"step": 123
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.0011004705058312045,
"learning_rate": 7.295832266935059e-05,
"loss": 0.0001,
"step": 124
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.0008421049360914082,
"learning_rate": 7.243995901002312e-05,
"loss": 0.0001,
"step": 125
},
{
"epoch": 0.84,
"grad_norm": 0.002857277007900197,
"learning_rate": 7.191855733945387e-05,
"loss": 0.0003,
"step": 126
},
{
"epoch": 0.8466666666666667,
"grad_norm": 0.004991942776888921,
"learning_rate": 7.139418824708272e-05,
"loss": 0.0008,
"step": 127
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.0034810519105614494,
"learning_rate": 7.08669227240909e-05,
"loss": 0.0004,
"step": 128
},
{
"epoch": 0.86,
"grad_norm": 0.0013393663186389013,
"learning_rate": 7.033683215379002e-05,
"loss": 0.0003,
"step": 129
},
{
"epoch": 0.8666666666666667,
"grad_norm": 0.001938276228289727,
"learning_rate": 6.980398830195785e-05,
"loss": 0.0003,
"step": 130
},
{
"epoch": 0.8733333333333333,
"grad_norm": 0.08997477894619263,
"learning_rate": 6.926846330712242e-05,
"loss": 0.048,
"step": 131
},
{
"epoch": 0.88,
"grad_norm": 0.16844510206079435,
"learning_rate": 6.873032967079561e-05,
"loss": 0.0097,
"step": 132
},
{
"epoch": 0.8866666666666667,
"grad_norm": 0.000888674134407202,
"learning_rate": 6.818966024765758e-05,
"loss": 0.0001,
"step": 133
},
{
"epoch": 0.8933333333333333,
"grad_norm": 0.009228988026029453,
"learning_rate": 6.764652823569344e-05,
"loss": 0.0012,
"step": 134
},
{
"epoch": 0.9,
"grad_norm": 0.004453025347443679,
"learning_rate": 6.710100716628344e-05,
"loss": 0.0005,
"step": 135
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.01793832388894505,
"learning_rate": 6.65531708942479e-05,
"loss": 0.0046,
"step": 136
},
{
"epoch": 0.9133333333333333,
"grad_norm": 0.0028230394752545326,
"learning_rate": 6.600309358784857e-05,
"loss": 0.0003,
"step": 137
},
{
"epoch": 0.92,
"grad_norm": 0.0027859088289514393,
"learning_rate": 6.545084971874738e-05,
"loss": 0.0003,
"step": 138
},
{
"epoch": 0.9266666666666666,
"grad_norm": 0.008822483096755842,
"learning_rate": 6.48965140519241e-05,
"loss": 0.0015,
"step": 139
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.007905295917479512,
"learning_rate": 6.434016163555452e-05,
"loss": 0.0006,
"step": 140
},
{
"epoch": 0.94,
"grad_norm": 0.005445432989462053,
"learning_rate": 6.378186779084995e-05,
"loss": 0.0009,
"step": 141
},
{
"epoch": 0.9466666666666667,
"grad_norm": 0.012588460609710635,
"learning_rate": 6.322170810186012e-05,
"loss": 0.0036,
"step": 142
},
{
"epoch": 0.9533333333333334,
"grad_norm": 0.0019277292503365924,
"learning_rate": 6.26597584052401e-05,
"loss": 0.0003,
"step": 143
},
{
"epoch": 0.96,
"grad_norm": 0.0019484484917963651,
"learning_rate": 6.209609477998338e-05,
"loss": 0.0004,
"step": 144
},
{
"epoch": 0.9666666666666667,
"grad_norm": 0.004747411789122029,
"learning_rate": 6.153079353712201e-05,
"loss": 0.0006,
"step": 145
},
{
"epoch": 0.9733333333333334,
"grad_norm": 0.0059348847872391424,
"learning_rate": 6.096393120939516e-05,
"loss": 0.0013,
"step": 146
},
{
"epoch": 0.98,
"grad_norm": 0.011898886338640825,
"learning_rate": 6.0395584540887963e-05,
"loss": 0.0012,
"step": 147
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.06960036393010154,
"learning_rate": 5.982583047664151e-05,
"loss": 0.0067,
"step": 148
},
{
"epoch": 0.9933333333333333,
"grad_norm": 0.0016042430770888461,
"learning_rate": 5.925474615223573e-05,
"loss": 0.0002,
"step": 149
},
{
"epoch": 1.0,
"grad_norm": 0.00041045735757819376,
"learning_rate": 5.868240888334653e-05,
"loss": 0.0001,
"step": 150
},
{
"epoch": 1.0,
"eval_loss": 0.0074932328425347805,
"eval_runtime": 0.3946,
"eval_samples_per_second": 2.534,
"eval_steps_per_second": 2.534,
"step": 150
},
{
"epoch": 1.0066666666666666,
"grad_norm": 0.031089130649145917,
"learning_rate": 5.810889615527838e-05,
"loss": 0.0037,
"step": 151
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.0006451095346604995,
"learning_rate": 5.753428561247416e-05,
"loss": 0.0001,
"step": 152
},
{
"epoch": 1.02,
"grad_norm": 8.234464614280706e-05,
"learning_rate": 5.695865504800327e-05,
"loss": 0.0,
"step": 153
},
{
"epoch": 1.0266666666666666,
"grad_norm": 0.00019303862372940268,
"learning_rate": 5.6382082393029746e-05,
"loss": 0.0,
"step": 154
},
{
"epoch": 1.0333333333333334,
"grad_norm": 0.00029651909090874535,
"learning_rate": 5.5804645706261514e-05,
"loss": 0.0001,
"step": 155
},
{
"epoch": 1.04,
"grad_norm": 0.0012350976050947713,
"learning_rate": 5.522642316338268e-05,
"loss": 0.0002,
"step": 156
},
{
"epoch": 1.0466666666666666,
"grad_norm": 0.00020884217432790283,
"learning_rate": 5.464749304646962e-05,
"loss": 0.0,
"step": 157
},
{
"epoch": 1.0533333333333332,
"grad_norm": 0.0003824216483842935,
"learning_rate": 5.4067933733392915e-05,
"loss": 0.0001,
"step": 158
},
{
"epoch": 1.06,
"grad_norm": 0.00034070477848585564,
"learning_rate": 5.348782368720626e-05,
"loss": 0.0001,
"step": 159
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.0003572470470127684,
"learning_rate": 5.290724144552379e-05,
"loss": 0.0001,
"step": 160
},
{
"epoch": 1.0733333333333333,
"grad_norm": 0.0018513471674874193,
"learning_rate": 5.232626560988735e-05,
"loss": 0.0005,
"step": 161
},
{
"epoch": 1.08,
"grad_norm": 0.00043801272411854095,
"learning_rate": 5.174497483512506e-05,
"loss": 0.0001,
"step": 162
},
{
"epoch": 1.0866666666666667,
"grad_norm": 0.0005392231831032653,
"learning_rate": 5.116344781870281e-05,
"loss": 0.0001,
"step": 163
},
{
"epoch": 1.0933333333333333,
"grad_norm": 0.0007184124255617073,
"learning_rate": 5.0581763290069865e-05,
"loss": 0.0002,
"step": 164
},
{
"epoch": 1.1,
"grad_norm": 0.004151719177702047,
"learning_rate": 5e-05,
"loss": 0.0006,
"step": 165
},
{
"epoch": 1.1066666666666667,
"grad_norm": 0.0006818926306425922,
"learning_rate": 4.941823670993016e-05,
"loss": 0.0001,
"step": 166
},
{
"epoch": 1.1133333333333333,
"grad_norm": 0.005536496383783915,
"learning_rate": 4.883655218129719e-05,
"loss": 0.0017,
"step": 167
},
{
"epoch": 1.12,
"grad_norm": 0.09618686462708961,
"learning_rate": 4.825502516487497e-05,
"loss": 0.0099,
"step": 168
},
{
"epoch": 1.1266666666666667,
"grad_norm": 0.0012136012952360053,
"learning_rate": 4.767373439011267e-05,
"loss": 0.0002,
"step": 169
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.004678614392813985,
"learning_rate": 4.709275855447621e-05,
"loss": 0.0008,
"step": 170
},
{
"epoch": 1.1400000000000001,
"grad_norm": 0.0009654276621053264,
"learning_rate": 4.6512176312793736e-05,
"loss": 0.0001,
"step": 171
},
{
"epoch": 1.1466666666666667,
"grad_norm": 0.005433216212881821,
"learning_rate": 4.593206626660709e-05,
"loss": 0.001,
"step": 172
},
{
"epoch": 1.1533333333333333,
"grad_norm": 0.0007414920348638349,
"learning_rate": 4.535250695353039e-05,
"loss": 0.0001,
"step": 173
},
{
"epoch": 1.16,
"grad_norm": 0.006152285912748001,
"learning_rate": 4.477357683661734e-05,
"loss": 0.001,
"step": 174
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.006246928301751163,
"learning_rate": 4.4195354293738484e-05,
"loss": 0.0015,
"step": 175
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.0005151100594549171,
"learning_rate": 4.361791760697027e-05,
"loss": 0.0001,
"step": 176
},
{
"epoch": 1.18,
"grad_norm": 0.0005548147703352298,
"learning_rate": 4.3041344951996746e-05,
"loss": 0.0001,
"step": 177
},
{
"epoch": 1.1866666666666668,
"grad_norm": 7.805343776674219e-05,
"learning_rate": 4.246571438752585e-05,
"loss": 0.0,
"step": 178
},
{
"epoch": 1.1933333333333334,
"grad_norm": 0.0004112314650348955,
"learning_rate": 4.1891103844721636e-05,
"loss": 0.0,
"step": 179
},
{
"epoch": 1.2,
"grad_norm": 0.0016542476720152485,
"learning_rate": 4.131759111665349e-05,
"loss": 0.0003,
"step": 180
},
{
"epoch": 1.2066666666666666,
"grad_norm": 0.0006428348768959248,
"learning_rate": 4.074525384776428e-05,
"loss": 0.0002,
"step": 181
},
{
"epoch": 1.2133333333333334,
"grad_norm": 0.00012026219259738094,
"learning_rate": 4.017416952335849e-05,
"loss": 0.0,
"step": 182
},
{
"epoch": 1.22,
"grad_norm": 0.000863217268550875,
"learning_rate": 3.960441545911204e-05,
"loss": 0.0002,
"step": 183
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.0005225555214027371,
"learning_rate": 3.903606879060483e-05,
"loss": 0.0001,
"step": 184
},
{
"epoch": 1.2333333333333334,
"grad_norm": 8.264161874997438e-05,
"learning_rate": 3.846920646287799e-05,
"loss": 0.0,
"step": 185
},
{
"epoch": 1.24,
"grad_norm": 0.0042856859623411035,
"learning_rate": 3.790390522001662e-05,
"loss": 0.0006,
"step": 186
},
{
"epoch": 1.2466666666666666,
"grad_norm": 0.00029850213325454306,
"learning_rate": 3.7340241594759916e-05,
"loss": 0.0001,
"step": 187
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.0001996204775418948,
"learning_rate": 3.67782918981399e-05,
"loss": 0.0,
"step": 188
},
{
"epoch": 1.26,
"grad_norm": 0.0001766475680789723,
"learning_rate": 3.6218132209150045e-05,
"loss": 0.0,
"step": 189
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.0013779410003049353,
"learning_rate": 3.5659838364445505e-05,
"loss": 0.0002,
"step": 190
},
{
"epoch": 1.2733333333333334,
"grad_norm": 0.003339916779830804,
"learning_rate": 3.51034859480759e-05,
"loss": 0.0002,
"step": 191
},
{
"epoch": 1.28,
"grad_norm": 0.008805917492538545,
"learning_rate": 3.4549150281252636e-05,
"loss": 0.0013,
"step": 192
},
{
"epoch": 1.2866666666666666,
"grad_norm": 3.748257443113416e-05,
"learning_rate": 3.399690641215142e-05,
"loss": 0.0,
"step": 193
},
{
"epoch": 1.2933333333333334,
"grad_norm": 0.0005340498756181954,
"learning_rate": 3.34468291057521e-05,
"loss": 0.0001,
"step": 194
},
{
"epoch": 1.3,
"grad_norm": 0.00033997327233216174,
"learning_rate": 3.289899283371657e-05,
"loss": 0.0001,
"step": 195
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.00034127047387187356,
"learning_rate": 3.235347176430656e-05,
"loss": 0.0001,
"step": 196
},
{
"epoch": 1.3133333333333335,
"grad_norm": 0.00047552332313896843,
"learning_rate": 3.1810339752342446e-05,
"loss": 0.0002,
"step": 197
},
{
"epoch": 1.32,
"grad_norm": 0.001580644296476945,
"learning_rate": 3.12696703292044e-05,
"loss": 0.0002,
"step": 198
},
{
"epoch": 1.3266666666666667,
"grad_norm": 0.0003860111380962226,
"learning_rate": 3.073153669287759e-05,
"loss": 0.0,
"step": 199
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.00043450540763884386,
"learning_rate": 3.019601169804216e-05,
"loss": 0.0001,
"step": 200
},
{
"epoch": 1.34,
"grad_norm": 0.0005078197808178275,
"learning_rate": 2.9663167846209998e-05,
"loss": 0.0001,
"step": 201
},
{
"epoch": 1.3466666666666667,
"grad_norm": 0.010410515696474101,
"learning_rate": 2.9133077275909108e-05,
"loss": 0.001,
"step": 202
},
{
"epoch": 1.3533333333333333,
"grad_norm": 0.013094598346933982,
"learning_rate": 2.86058117529173e-05,
"loss": 0.001,
"step": 203
},
{
"epoch": 1.3599999999999999,
"grad_norm": 0.00039578705354724556,
"learning_rate": 2.8081442660546125e-05,
"loss": 0.0001,
"step": 204
},
{
"epoch": 1.3666666666666667,
"grad_norm": 0.005772801852066743,
"learning_rate": 2.7560040989976892e-05,
"loss": 0.0005,
"step": 205
},
{
"epoch": 1.3733333333333333,
"grad_norm": 0.0009128644518254651,
"learning_rate": 2.7041677330649407e-05,
"loss": 0.0001,
"step": 206
},
{
"epoch": 1.38,
"grad_norm": 0.004983225527982661,
"learning_rate": 2.6526421860705473e-05,
"loss": 0.0005,
"step": 207
},
{
"epoch": 1.3866666666666667,
"grad_norm": 0.005898505662750197,
"learning_rate": 2.6014344337487707e-05,
"loss": 0.0009,
"step": 208
},
{
"epoch": 1.3933333333333333,
"grad_norm": 0.00022202431543141628,
"learning_rate": 2.5505514088095655e-05,
"loss": 0.0,
"step": 209
},
{
"epoch": 1.4,
"grad_norm": 0.00019053311808447888,
"learning_rate": 2.500000000000001e-05,
"loss": 0.0,
"step": 210
},
{
"epoch": 1.4066666666666667,
"grad_norm": 7.744793320853118e-05,
"learning_rate": 2.4497870511716235e-05,
"loss": 0.0,
"step": 211
},
{
"epoch": 1.4133333333333333,
"grad_norm": 0.011676656554674262,
"learning_rate": 2.399919360353923e-05,
"loss": 0.0007,
"step": 212
},
{
"epoch": 1.42,
"grad_norm": 0.002490004051101118,
"learning_rate": 2.350403678833976e-05,
"loss": 0.0005,
"step": 213
},
{
"epoch": 1.4266666666666667,
"grad_norm": 0.00507177145839392,
"learning_rate": 2.3012467102424373e-05,
"loss": 0.0005,
"step": 214
},
{
"epoch": 1.4333333333333333,
"grad_norm": 0.004393215595981061,
"learning_rate": 2.25245510964597e-05,
"loss": 0.0002,
"step": 215
},
{
"epoch": 1.44,
"grad_norm": 0.0006243364115855281,
"learning_rate": 2.2040354826462668e-05,
"loss": 0.0001,
"step": 216
},
{
"epoch": 1.4466666666666668,
"grad_norm": 0.0006950287557028698,
"learning_rate": 2.1559943844857422e-05,
"loss": 0.0001,
"step": 217
},
{
"epoch": 1.4533333333333334,
"grad_norm": 0.0005312225839140049,
"learning_rate": 2.1083383191600674e-05,
"loss": 0.0001,
"step": 218
},
{
"epoch": 1.46,
"grad_norm": 0.0002135095235760697,
"learning_rate": 2.061073738537635e-05,
"loss": 0.0,
"step": 219
},
{
"epoch": 1.4666666666666668,
"grad_norm": 0.0002562954895931104,
"learning_rate": 2.0142070414860704e-05,
"loss": 0.0,
"step": 220
},
{
"epoch": 1.4733333333333334,
"grad_norm": 0.00017281221812328804,
"learning_rate": 1.9677445730059346e-05,
"loss": 0.0,
"step": 221
},
{
"epoch": 1.48,
"grad_norm": 9.680690123587516e-05,
"learning_rate": 1.9216926233717085e-05,
"loss": 0.0,
"step": 222
},
{
"epoch": 1.4866666666666668,
"grad_norm": 0.000404099128164839,
"learning_rate": 1.8760574272802e-05,
"loss": 0.0001,
"step": 223
},
{
"epoch": 1.4933333333333334,
"grad_norm": 9.76411590058246e-05,
"learning_rate": 1.8308451630064484e-05,
"loss": 0.0,
"step": 224
},
{
"epoch": 1.5,
"grad_norm": 0.0008982099629517151,
"learning_rate": 1.7860619515673033e-05,
"loss": 0.0001,
"step": 225
},
{
"epoch": 1.5066666666666668,
"grad_norm": 3.113841512923947e-05,
"learning_rate": 1.7417138558927244e-05,
"loss": 0.0,
"step": 226
},
{
"epoch": 1.5133333333333332,
"grad_norm": 0.00013109737767042696,
"learning_rate": 1.6978068800049624e-05,
"loss": 0.0,
"step": 227
},
{
"epoch": 1.52,
"grad_norm": 0.00013912686292984707,
"learning_rate": 1.6543469682057106e-05,
"loss": 0.0,
"step": 228
},
{
"epoch": 1.5266666666666666,
"grad_norm": 0.0004670681966045266,
"learning_rate": 1.611340004271339e-05,
"loss": 0.0001,
"step": 229
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.0010468991806846528,
"learning_rate": 1.5687918106563326e-05,
"loss": 0.0001,
"step": 230
},
{
"epoch": 1.54,
"grad_norm": 0.0021258827608900475,
"learning_rate": 1.526708147705013e-05,
"loss": 0.0002,
"step": 231
},
{
"epoch": 1.5466666666666666,
"grad_norm": 0.001974753904810416,
"learning_rate": 1.4850947128716913e-05,
"loss": 0.0005,
"step": 232
},
{
"epoch": 1.5533333333333332,
"grad_norm": 0.00029809968593984786,
"learning_rate": 1.4439571399493146e-05,
"loss": 0.0001,
"step": 233
},
{
"epoch": 1.56,
"grad_norm": 0.0021112287147639287,
"learning_rate": 1.4033009983067452e-05,
"loss": 0.0003,
"step": 234
},
{
"epoch": 1.5666666666666667,
"grad_norm": 0.0002470091242766645,
"learning_rate": 1.3631317921347563e-05,
"loss": 0.0,
"step": 235
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.001070621399022178,
"learning_rate": 1.3234549597008571e-05,
"loss": 0.0001,
"step": 236
},
{
"epoch": 1.58,
"grad_norm": 0.0010645260052207543,
"learning_rate": 1.2842758726130283e-05,
"loss": 0.0003,
"step": 237
},
{
"epoch": 1.5866666666666667,
"grad_norm": 0.010799310038266204,
"learning_rate": 1.245599835092504e-05,
"loss": 0.0025,
"step": 238
},
{
"epoch": 1.5933333333333333,
"grad_norm": 1.7244510667684293e-05,
"learning_rate": 1.2074320832556556e-05,
"loss": 0.0,
"step": 239
},
{
"epoch": 1.6,
"grad_norm": 0.00014489867038948415,
"learning_rate": 1.1697777844051105e-05,
"loss": 0.0,
"step": 240
},
{
"epoch": 1.6066666666666667,
"grad_norm": 0.0008985387662203004,
"learning_rate": 1.132642036330181e-05,
"loss": 0.0001,
"step": 241
},
{
"epoch": 1.6133333333333333,
"grad_norm": 0.00912727757765451,
"learning_rate": 1.096029866616704e-05,
"loss": 0.0039,
"step": 242
},
{
"epoch": 1.62,
"grad_norm": 0.0006900899004432735,
"learning_rate": 1.0599462319663905e-05,
"loss": 0.0001,
"step": 243
},
{
"epoch": 1.6266666666666667,
"grad_norm": 0.000844182967464247,
"learning_rate": 1.0243960175257606e-05,
"loss": 0.0002,
"step": 244
},
{
"epoch": 1.6333333333333333,
"grad_norm": 0.0007783763736822429,
"learning_rate": 9.893840362247809e-06,
"loss": 0.0,
"step": 245
},
{
"epoch": 1.6400000000000001,
"grad_norm": 0.00025158814215528826,
"learning_rate": 9.549150281252633e-06,
"loss": 0.0001,
"step": 246
},
{
"epoch": 1.6466666666666665,
"grad_norm": 0.0013061698295345127,
"learning_rate": 9.209936597791407e-06,
"loss": 0.0003,
"step": 247
},
{
"epoch": 1.6533333333333333,
"grad_norm": 0.0016255181980921593,
"learning_rate": 8.876245235966885e-06,
"loss": 0.0004,
"step": 248
},
{
"epoch": 1.6600000000000001,
"grad_norm": 9.930899235145161e-05,
"learning_rate": 8.548121372247918e-06,
"loss": 0.0,
"step": 249
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.00048227526447437366,
"learning_rate": 8.225609429353187e-06,
"loss": 0.0,
"step": 250
},
{
"epoch": 1.6733333333333333,
"grad_norm": 0.0029678338765428106,
"learning_rate": 7.908753070237123e-06,
"loss": 0.0004,
"step": 251
},
{
"epoch": 1.6800000000000002,
"grad_norm": 2.9067699556613302e-05,
"learning_rate": 7.597595192178702e-06,
"loss": 0.0,
"step": 252
},
{
"epoch": 1.6866666666666665,
"grad_norm": 0.00012194522673978505,
"learning_rate": 7.292177920973725e-06,
"loss": 0.0,
"step": 253
},
{
"epoch": 1.6933333333333334,
"grad_norm": 0.00704915288263033,
"learning_rate": 6.992542605231739e-06,
"loss": 0.0014,
"step": 254
},
{
"epoch": 1.7,
"grad_norm": 0.00022859587609183477,
"learning_rate": 6.698729810778065e-06,
"loss": 0.0,
"step": 255
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.0011638602882050794,
"learning_rate": 6.410779315161886e-06,
"loss": 0.0001,
"step": 256
},
{
"epoch": 1.7133333333333334,
"grad_norm": 0.004222702966712396,
"learning_rate": 6.128730102270897e-06,
"loss": 0.001,
"step": 257
},
{
"epoch": 1.72,
"grad_norm": 0.0026245641423167107,
"learning_rate": 5.852620357053651e-06,
"loss": 0.0005,
"step": 258
},
{
"epoch": 1.7266666666666666,
"grad_norm": 0.00015547916245129244,
"learning_rate": 5.582487460349805e-06,
"loss": 0.0,
"step": 259
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.0006334216683875969,
"learning_rate": 5.318367983829392e-06,
"loss": 0.0001,
"step": 260
},
{
"epoch": 1.74,
"grad_norm": 0.00036857466764015745,
"learning_rate": 5.060297685041659e-06,
"loss": 0.0,
"step": 261
},
{
"epoch": 1.7466666666666666,
"grad_norm": 0.00012761522054464025,
"learning_rate": 4.8083115025739756e-06,
"loss": 0.0,
"step": 262
},
{
"epoch": 1.7533333333333334,
"grad_norm": 0.0007734440886516986,
"learning_rate": 4.562443551321788e-06,
"loss": 0.0001,
"step": 263
},
{
"epoch": 1.76,
"grad_norm": 0.00024214344686277712,
"learning_rate": 4.322727117869951e-06,
"loss": 0.0001,
"step": 264
},
{
"epoch": 1.7666666666666666,
"grad_norm": 0.00012185148268081635,
"learning_rate": 4.089194655986306e-06,
"loss": 0.0,
"step": 265
},
{
"epoch": 1.7733333333333334,
"grad_norm": 0.00025376400041509517,
"learning_rate": 3.861877782227885e-06,
"loss": 0.0001,
"step": 266
},
{
"epoch": 1.78,
"grad_norm": 0.0004833967931922394,
"learning_rate": 3.6408072716606346e-06,
"loss": 0.0,
"step": 267
},
{
"epoch": 1.7866666666666666,
"grad_norm": 0.0004078905376115123,
"learning_rate": 3.426013053692878e-06,
"loss": 0.0001,
"step": 268
},
{
"epoch": 1.7933333333333334,
"grad_norm": 0.0003222074521348218,
"learning_rate": 3.2175242080234313e-06,
"loss": 0.0001,
"step": 269
},
{
"epoch": 1.8,
"grad_norm": 0.000715890842867892,
"learning_rate": 3.0153689607045845e-06,
"loss": 0.0002,
"step": 270
},
{
"epoch": 1.8066666666666666,
"grad_norm": 0.005881869306444734,
"learning_rate": 2.8195746803208244e-06,
"loss": 0.0007,
"step": 271
},
{
"epoch": 1.8133333333333335,
"grad_norm": 0.0007845683482315244,
"learning_rate": 2.63016787428354e-06,
"loss": 0.0002,
"step": 272
},
{
"epoch": 1.8199999999999998,
"grad_norm": 0.000284811298553116,
"learning_rate": 2.4471741852423237e-06,
"loss": 0.0001,
"step": 273
},
{
"epoch": 1.8266666666666667,
"grad_norm": 0.0029126414232900936,
"learning_rate": 2.2706183876134045e-06,
"loss": 0.0006,
"step": 274
},
{
"epoch": 1.8333333333333335,
"grad_norm": 0.00034327205731299944,
"learning_rate": 2.100524384225555e-06,
"loss": 0.0001,
"step": 275
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.0009963985705316596,
"learning_rate": 1.9369152030840556e-06,
"loss": 0.0001,
"step": 276
},
{
"epoch": 1.8466666666666667,
"grad_norm": 0.002915086542858528,
"learning_rate": 1.7798129942530551e-06,
"loss": 0.0002,
"step": 277
},
{
"epoch": 1.8533333333333335,
"grad_norm": 0.00012896801081549908,
"learning_rate": 1.6292390268568104e-06,
"loss": 0.0,
"step": 278
},
{
"epoch": 1.8599999999999999,
"grad_norm": 0.00022915446962460819,
"learning_rate": 1.4852136862001764e-06,
"loss": 0.0001,
"step": 279
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.00014364128256863693,
"learning_rate": 1.3477564710088098e-06,
"loss": 0.0,
"step": 280
},
{
"epoch": 1.8733333333333333,
"grad_norm": 0.008956511187808444,
"learning_rate": 1.2168859907892904e-06,
"loss": 0.0007,
"step": 281
},
{
"epoch": 1.88,
"grad_norm": 0.0007832180091732772,
"learning_rate": 1.0926199633097157e-06,
"loss": 0.0001,
"step": 282
},
{
"epoch": 1.8866666666666667,
"grad_norm": 0.0011545340643213623,
"learning_rate": 9.749752122010346e-07,
"loss": 0.0002,
"step": 283
},
{
"epoch": 1.8933333333333333,
"grad_norm": 0.0012911549229515733,
"learning_rate": 8.639676646793382e-07,
"loss": 0.0001,
"step": 284
},
{
"epoch": 1.9,
"grad_norm": 0.0020073373042525343,
"learning_rate": 7.596123493895991e-07,
"loss": 0.0002,
"step": 285
},
{
"epoch": 1.9066666666666667,
"grad_norm": 0.00019899983137095013,
"learning_rate": 6.61923394371039e-07,
"loss": 0.0,
"step": 286
},
{
"epoch": 1.9133333333333333,
"grad_norm": 5.1578148199220094e-05,
"learning_rate": 5.7091402514442e-07,
"loss": 0.0,
"step": 287
},
{
"epoch": 1.92,
"grad_norm": 0.008718803982540572,
"learning_rate": 4.865965629214819e-07,
"loss": 0.001,
"step": 288
},
{
"epoch": 1.9266666666666667,
"grad_norm": 0.0002493342368906471,
"learning_rate": 4.089824229369155e-07,
"loss": 0.0,
"step": 289
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.0009400967640781917,
"learning_rate": 3.380821129028489e-07,
"loss": 0.0002,
"step": 290
},
{
"epoch": 1.94,
"grad_norm": 0.0002300872858375204,
"learning_rate": 2.7390523158633554e-07,
"loss": 0.0,
"step": 291
},
{
"epoch": 1.9466666666666668,
"grad_norm": 0.00014997914469196854,
"learning_rate": 2.1646046750978254e-07,
"loss": 0.0,
"step": 292
},
{
"epoch": 1.9533333333333334,
"grad_norm": 0.0015398363148719234,
"learning_rate": 1.657555977746972e-07,
"loss": 0.0002,
"step": 293
},
{
"epoch": 1.96,
"grad_norm": 0.0008230077326252405,
"learning_rate": 1.2179748700879012e-07,
"loss": 0.0001,
"step": 294
},
{
"epoch": 1.9666666666666668,
"grad_norm": 6.303625402493333e-05,
"learning_rate": 8.459208643659122e-08,
"loss": 0.0,
"step": 295
},
{
"epoch": 1.9733333333333334,
"grad_norm": 0.00015224658253625332,
"learning_rate": 5.4144433073771707e-08,
"loss": 0.0,
"step": 296
},
{
"epoch": 1.98,
"grad_norm": 7.01693469142752e-05,
"learning_rate": 3.04586490452119e-08,
"loss": 0.0,
"step": 297
},
{
"epoch": 1.9866666666666668,
"grad_norm": 0.003389360446962304,
"learning_rate": 1.3537941026914303e-08,
"loss": 0.0002,
"step": 298
},
{
"epoch": 1.9933333333333332,
"grad_norm": 0.005660794508101614,
"learning_rate": 3.384599811889766e-09,
"loss": 0.0005,
"step": 299
},
{
"epoch": 2.0,
"grad_norm": 0.0014618162081013718,
"learning_rate": 0.0,
"loss": 0.0001,
"step": 300
},
{
"epoch": 2.0,
"eval_loss": 0.00017112937348429114,
"eval_runtime": 1.4813,
"eval_samples_per_second": 0.675,
"eval_steps_per_second": 0.675,
"step": 300
},
{
"epoch": 2.0,
"step": 300,
"total_flos": 10545480253440.0,
"train_loss": 0.004103656022343785,
"train_runtime": 957.2962,
"train_samples_per_second": 0.627,
"train_steps_per_second": 0.313
}
],
"logging_steps": 1,
"max_steps": 300,
"num_input_tokens_seen": 0,
"num_train_epochs": 2,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 10545480253440.0,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}