ShaySha's picture
End of training
ffd4582 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 12.0,
"eval_steps": 500,
"global_step": 48,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.64,
"grad_norm": 0.9444175362586975,
"learning_rate": 0.00019166666666666667,
"loss": 9.6275,
"step": 2
},
{
"epoch": 1.0,
"grad_norm": 0.27594709396362305,
"learning_rate": 0.00018333333333333334,
"loss": 5.2513,
"step": 4
},
{
"epoch": 1.6400000000000001,
"grad_norm": 2.447077989578247,
"learning_rate": 0.000175,
"loss": 8.6347,
"step": 6
},
{
"epoch": 2.0,
"grad_norm": 0.26538360118865967,
"learning_rate": 0.0001666666666666667,
"loss": 4.5485,
"step": 8
},
{
"epoch": 2.64,
"grad_norm": 1.1157130002975464,
"learning_rate": 0.00015833333333333332,
"loss": 7.6164,
"step": 10
},
{
"epoch": 3.0,
"grad_norm": 0.20757710933685303,
"learning_rate": 0.00015000000000000001,
"loss": 4.2397,
"step": 12
},
{
"epoch": 3.64,
"grad_norm": 0.958597719669342,
"learning_rate": 0.00014166666666666668,
"loss": 7.3819,
"step": 14
},
{
"epoch": 4.0,
"grad_norm": 0.285988450050354,
"learning_rate": 0.00013333333333333334,
"loss": 4.158,
"step": 16
},
{
"epoch": 4.64,
"grad_norm": 0.6224765181541443,
"learning_rate": 0.000125,
"loss": 7.2957,
"step": 18
},
{
"epoch": 5.0,
"grad_norm": 0.18170130252838135,
"learning_rate": 0.00011666666666666668,
"loss": 4.0762,
"step": 20
},
{
"epoch": 5.64,
"grad_norm": 0.4508182108402252,
"learning_rate": 0.00010833333333333333,
"loss": 7.219,
"step": 22
},
{
"epoch": 6.0,
"grad_norm": 0.17579227685928345,
"learning_rate": 0.0001,
"loss": 4.0777,
"step": 24
},
{
"epoch": 6.64,
"grad_norm": 0.5887883305549622,
"learning_rate": 9.166666666666667e-05,
"loss": 7.2008,
"step": 26
},
{
"epoch": 7.0,
"grad_norm": 0.16587680578231812,
"learning_rate": 8.333333333333334e-05,
"loss": 4.0601,
"step": 28
},
{
"epoch": 7.64,
"grad_norm": 0.8699614405632019,
"learning_rate": 7.500000000000001e-05,
"loss": 7.1846,
"step": 30
},
{
"epoch": 8.0,
"grad_norm": 0.12891338765621185,
"learning_rate": 6.666666666666667e-05,
"loss": 4.0341,
"step": 32
},
{
"epoch": 8.64,
"grad_norm": 0.6497959494590759,
"learning_rate": 5.833333333333334e-05,
"loss": 7.1684,
"step": 34
},
{
"epoch": 9.0,
"grad_norm": 0.21780814230442047,
"learning_rate": 5e-05,
"loss": 4.0268,
"step": 36
},
{
"epoch": 9.64,
"grad_norm": 0.5005463361740112,
"learning_rate": 4.166666666666667e-05,
"loss": 7.1632,
"step": 38
},
{
"epoch": 10.0,
"grad_norm": 0.1379019170999527,
"learning_rate": 3.3333333333333335e-05,
"loss": 4.0141,
"step": 40
},
{
"epoch": 10.64,
"grad_norm": 0.3742949962615967,
"learning_rate": 2.5e-05,
"loss": 7.1528,
"step": 42
},
{
"epoch": 11.0,
"grad_norm": 0.1629418581724167,
"learning_rate": 1.6666666666666667e-05,
"loss": 4.0143,
"step": 44
},
{
"epoch": 11.64,
"grad_norm": 0.3627496659755707,
"learning_rate": 8.333333333333334e-06,
"loss": 7.147,
"step": 46
},
{
"epoch": 12.0,
"grad_norm": 0.13871623575687408,
"learning_rate": 0.0,
"loss": 4.012,
"step": 48
},
{
"epoch": 12.0,
"step": 48,
"total_flos": 147726005249160.0,
"train_loss": 5.887702425320943,
"train_runtime": 183.8612,
"train_samples_per_second": 4.351,
"train_steps_per_second": 0.261
}
],
"logging_steps": 2,
"max_steps": 48,
"num_input_tokens_seen": 0,
"num_train_epochs": 16,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 147726005249160.0,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}