|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 32.0, |
|
"eval_steps": 500, |
|
"global_step": 100, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 0.00019895833333333332, |
|
"loss": 2.436, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 0.0001979166666666667, |
|
"loss": 2.134, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 0.000196875, |
|
"loss": 1.8754, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 0.00019583333333333334, |
|
"loss": 1.7027, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 0.00019479166666666668, |
|
"loss": 1.5335, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 0.00019375000000000002, |
|
"loss": 1.4574, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 0.00019270833333333333, |
|
"loss": 1.3616, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 0.00019166666666666667, |
|
"loss": 1.2486, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 0.000190625, |
|
"loss": 1.2004, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 0.00018958333333333332, |
|
"loss": 1.1875, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"learning_rate": 0.0001885416666666667, |
|
"loss": 1.146, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 3.84, |
|
"learning_rate": 0.0001875, |
|
"loss": 1.1426, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 4.16, |
|
"learning_rate": 0.00018645833333333334, |
|
"loss": 1.081, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 4.48, |
|
"learning_rate": 0.00018541666666666668, |
|
"loss": 1.0904, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 4.8, |
|
"learning_rate": 0.000184375, |
|
"loss": 1.0793, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 5.12, |
|
"learning_rate": 0.00018333333333333334, |
|
"loss": 1.0554, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 5.44, |
|
"learning_rate": 0.00018229166666666667, |
|
"loss": 1.0499, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 5.76, |
|
"learning_rate": 0.00018125000000000001, |
|
"loss": 1.0378, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 6.08, |
|
"learning_rate": 0.00018020833333333333, |
|
"loss": 1.0245, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"learning_rate": 0.0001791666666666667, |
|
"loss": 1.0436, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 6.72, |
|
"learning_rate": 0.000178125, |
|
"loss": 0.9766, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 7.04, |
|
"learning_rate": 0.00017708333333333335, |
|
"loss": 0.9664, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 7.36, |
|
"learning_rate": 0.00017604166666666669, |
|
"loss": 0.9977, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 7.68, |
|
"learning_rate": 0.000175, |
|
"loss": 0.9671, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 0.00017395833333333334, |
|
"loss": 0.9229, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 8.32, |
|
"learning_rate": 0.00017291666666666668, |
|
"loss": 0.957, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 8.64, |
|
"learning_rate": 0.00017187500000000002, |
|
"loss": 0.9213, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 8.96, |
|
"learning_rate": 0.00017083333333333333, |
|
"loss": 0.9147, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 9.28, |
|
"learning_rate": 0.00016979166666666667, |
|
"loss": 0.8976, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 9.6, |
|
"learning_rate": 0.00016875, |
|
"loss": 0.8961, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 9.92, |
|
"learning_rate": 0.00016770833333333332, |
|
"loss": 0.8934, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 10.24, |
|
"learning_rate": 0.0001666666666666667, |
|
"loss": 0.865, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 10.56, |
|
"learning_rate": 0.000165625, |
|
"loss": 0.8952, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 10.88, |
|
"learning_rate": 0.00016458333333333334, |
|
"loss": 0.832, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 11.2, |
|
"learning_rate": 0.00016354166666666668, |
|
"loss": 0.8241, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 11.52, |
|
"learning_rate": 0.00016250000000000002, |
|
"loss": 0.834, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 11.84, |
|
"learning_rate": 0.00016145833333333333, |
|
"loss": 0.8305, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 12.16, |
|
"learning_rate": 0.00016041666666666667, |
|
"loss": 0.7752, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 12.48, |
|
"learning_rate": 0.000159375, |
|
"loss": 0.8084, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 12.8, |
|
"learning_rate": 0.00015833333333333332, |
|
"loss": 0.7757, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 13.12, |
|
"learning_rate": 0.0001572916666666667, |
|
"loss": 0.7724, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 13.44, |
|
"learning_rate": 0.00015625, |
|
"loss": 0.7478, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 13.76, |
|
"learning_rate": 0.00015520833333333334, |
|
"loss": 0.7291, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 14.08, |
|
"learning_rate": 0.00015416666666666668, |
|
"loss": 0.7444, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 14.4, |
|
"learning_rate": 0.000153125, |
|
"loss": 0.732, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 14.72, |
|
"learning_rate": 0.00015208333333333333, |
|
"loss": 0.6892, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 15.04, |
|
"learning_rate": 0.00015104166666666667, |
|
"loss": 0.6804, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 15.36, |
|
"learning_rate": 0.00015000000000000001, |
|
"loss": 0.668, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 15.68, |
|
"learning_rate": 0.00014895833333333333, |
|
"loss": 0.6568, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 16.0, |
|
"learning_rate": 0.0001479166666666667, |
|
"loss": 0.6475, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 16.32, |
|
"learning_rate": 0.000146875, |
|
"loss": 0.6317, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 16.64, |
|
"learning_rate": 0.00014583333333333335, |
|
"loss": 0.5976, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 16.96, |
|
"learning_rate": 0.00014479166666666669, |
|
"loss": 0.6074, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 17.28, |
|
"learning_rate": 0.00014375, |
|
"loss": 0.5905, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 17.6, |
|
"learning_rate": 0.00014270833333333334, |
|
"loss": 0.5564, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 17.92, |
|
"learning_rate": 0.00014166666666666668, |
|
"loss": 0.5773, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 18.24, |
|
"learning_rate": 0.00014062500000000002, |
|
"loss": 0.5337, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 18.56, |
|
"learning_rate": 0.00013958333333333333, |
|
"loss": 0.5227, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 18.88, |
|
"learning_rate": 0.00013854166666666667, |
|
"loss": 0.5251, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 19.2, |
|
"learning_rate": 0.0001375, |
|
"loss": 0.503, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 19.52, |
|
"learning_rate": 0.00013645833333333332, |
|
"loss": 0.486, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 19.84, |
|
"learning_rate": 0.0001354166666666667, |
|
"loss": 0.4632, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 20.16, |
|
"learning_rate": 0.000134375, |
|
"loss": 0.4734, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 20.48, |
|
"learning_rate": 0.00013333333333333334, |
|
"loss": 0.4212, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 20.8, |
|
"learning_rate": 0.00013229166666666668, |
|
"loss": 0.4255, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 21.12, |
|
"learning_rate": 0.00013125000000000002, |
|
"loss": 0.4231, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 21.44, |
|
"learning_rate": 0.00013020833333333333, |
|
"loss": 0.392, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 21.76, |
|
"learning_rate": 0.00012916666666666667, |
|
"loss": 0.3924, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 22.08, |
|
"learning_rate": 0.000128125, |
|
"loss": 0.3787, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 22.4, |
|
"learning_rate": 0.00012708333333333332, |
|
"loss": 0.3562, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 22.72, |
|
"learning_rate": 0.0001260416666666667, |
|
"loss": 0.3474, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 23.04, |
|
"learning_rate": 0.000125, |
|
"loss": 0.338, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 23.36, |
|
"learning_rate": 0.00012395833333333334, |
|
"loss": 0.326, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 23.68, |
|
"learning_rate": 0.00012291666666666668, |
|
"loss": 0.3049, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 24.0, |
|
"learning_rate": 0.00012187500000000001, |
|
"loss": 0.3032, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 24.32, |
|
"learning_rate": 0.00012083333333333333, |
|
"loss": 0.2957, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 24.64, |
|
"learning_rate": 0.00011979166666666667, |
|
"loss": 0.2771, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 24.96, |
|
"learning_rate": 0.00011875, |
|
"loss": 0.2706, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 25.28, |
|
"learning_rate": 0.00011770833333333333, |
|
"loss": 0.2611, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 25.6, |
|
"learning_rate": 0.00011666666666666668, |
|
"loss": 0.2515, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 25.92, |
|
"learning_rate": 0.000115625, |
|
"loss": 0.2353, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 26.24, |
|
"learning_rate": 0.00011458333333333333, |
|
"loss": 0.2323, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 26.56, |
|
"learning_rate": 0.00011354166666666668, |
|
"loss": 0.2394, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 26.88, |
|
"learning_rate": 0.00011250000000000001, |
|
"loss": 0.2154, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 27.2, |
|
"learning_rate": 0.00011145833333333334, |
|
"loss": 0.2045, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 27.52, |
|
"learning_rate": 0.00011041666666666668, |
|
"loss": 0.2133, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 27.84, |
|
"learning_rate": 0.000109375, |
|
"loss": 0.1995, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 28.16, |
|
"learning_rate": 0.00010833333333333333, |
|
"loss": 0.1938, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 28.48, |
|
"learning_rate": 0.00010729166666666668, |
|
"loss": 0.1881, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 28.8, |
|
"learning_rate": 0.00010625000000000001, |
|
"loss": 0.1814, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 29.12, |
|
"learning_rate": 0.00010520833333333333, |
|
"loss": 0.1707, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 29.44, |
|
"learning_rate": 0.00010416666666666667, |
|
"loss": 0.1716, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 29.76, |
|
"learning_rate": 0.000103125, |
|
"loss": 0.1706, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 30.08, |
|
"learning_rate": 0.00010208333333333333, |
|
"loss": 0.1685, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 30.4, |
|
"learning_rate": 0.00010104166666666668, |
|
"loss": 0.1621, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 30.72, |
|
"learning_rate": 0.0001, |
|
"loss": 0.1548, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 31.04, |
|
"learning_rate": 9.895833333333334e-05, |
|
"loss": 0.1525, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 31.36, |
|
"learning_rate": 9.791666666666667e-05, |
|
"loss": 0.1488, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 31.68, |
|
"learning_rate": 9.687500000000001e-05, |
|
"loss": 0.1423, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 32.0, |
|
"learning_rate": 9.583333333333334e-05, |
|
"loss": 0.1452, |
|
"step": 100 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 192, |
|
"num_train_epochs": 64, |
|
"save_steps": 100, |
|
"total_flos": 2.4750253661952e+16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|