|
{ |
|
"best_metric": 1.5779266357421875, |
|
"best_model_checkpoint": "chinese_roberta_L-2_H-128-finetuned-MC-hyper/checkpoint-750", |
|
"epoch": 3.0, |
|
"global_step": 750, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 1.6118, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 1.6098, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 1.606, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 1.6078, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 1.6084, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 4.2e-05, |
|
"loss": 1.6069, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 1.6077, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 1.6025, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 3.8e-05, |
|
"loss": 1.6015, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 1.5974, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 1.6043, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 1.5896, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_accuracy": 0.22200000286102295, |
|
"eval_loss": 1.5897876024246216, |
|
"eval_runtime": 0.8298, |
|
"eval_samples_per_second": 602.546, |
|
"eval_steps_per_second": 38.563, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 1.5971, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 1.5927, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 3e-05, |
|
"loss": 1.5924, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 1.5821, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 1.5791, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 1.5902, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 2.466666666666667e-05, |
|
"loss": 1.5781, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 1.5712, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 1.5792, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 2.0666666666666666e-05, |
|
"loss": 1.5764, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 1.5908, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 1.8e-05, |
|
"loss": 1.558, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 1.5831, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_accuracy": 0.21199999749660492, |
|
"eval_loss": 1.5786162614822388, |
|
"eval_runtime": 0.8638, |
|
"eval_samples_per_second": 578.811, |
|
"eval_steps_per_second": 37.044, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 1.5675, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 1.5696, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 1.2666666666666668e-05, |
|
"loss": 1.5679, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 1.5625, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 1e-05, |
|
"loss": 1.5726, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 1.5627, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 7.333333333333334e-06, |
|
"loss": 1.5596, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 6e-06, |
|
"loss": 1.5648, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 1.5623, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 1.5766, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 1.5596, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 1.54, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_accuracy": 0.2160000056028366, |
|
"eval_loss": 1.5779266357421875, |
|
"eval_runtime": 0.9285, |
|
"eval_samples_per_second": 538.513, |
|
"eval_steps_per_second": 34.465, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"step": 750, |
|
"total_flos": 16105346090400.0, |
|
"train_loss": 1.5832408892313639, |
|
"train_runtime": 76.8946, |
|
"train_samples_per_second": 156.058, |
|
"train_steps_per_second": 9.754 |
|
} |
|
], |
|
"max_steps": 750, |
|
"num_train_epochs": 3, |
|
"total_flos": 16105346090400.0, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|