|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 2.0, |
|
"eval_steps": 500, |
|
"global_step": 15000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 6.766666666666667e-05, |
|
"loss": 0.0603, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 6.533333333333333e-05, |
|
"loss": 0.0254, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 6.3e-05, |
|
"loss": 0.0239, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 6.0666666666666666e-05, |
|
"loss": 0.0261, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 5.833333333333333e-05, |
|
"loss": 0.0273, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 5.6e-05, |
|
"loss": 0.0277, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 5.3666666666666666e-05, |
|
"loss": 0.0345, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 5.1333333333333325e-05, |
|
"loss": 0.0466, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 4.899999999999999e-05, |
|
"loss": 0.0446, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 4.666666666666666e-05, |
|
"loss": 0.0516, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 4.4333333333333324e-05, |
|
"loss": 0.1478, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.1737, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 3.9666666666666664e-05, |
|
"loss": 0.1589, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 3.733333333333333e-05, |
|
"loss": 0.1182, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 3.5e-05, |
|
"loss": 0.1202, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 3.266666666666666e-05, |
|
"loss": 0.1257, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 3.0333333333333333e-05, |
|
"loss": 0.111, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 2.8e-05, |
|
"loss": 0.0896, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 2.5666666666666663e-05, |
|
"loss": 0.1242, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 2.333333333333333e-05, |
|
"loss": 0.2347, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 2.1e-05, |
|
"loss": 0.1378, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 1.8666666666666665e-05, |
|
"loss": 0.1138, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 1.633333333333333e-05, |
|
"loss": 0.0717, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 1.4e-05, |
|
"loss": 0.0562, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 1.1666666666666665e-05, |
|
"loss": 0.043, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 9.333333333333333e-06, |
|
"loss": 0.0398, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 7e-06, |
|
"loss": 0.0415, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 4.666666666666666e-06, |
|
"loss": 0.0438, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 2.333333333333333e-06, |
|
"loss": 0.0415, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 0.0, |
|
"loss": 0.0467, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"step": 15000, |
|
"total_flos": 6.314778574848e+16, |
|
"train_loss": 0.08026279830932617, |
|
"train_runtime": 5226.8636, |
|
"train_samples_per_second": 183.667, |
|
"train_steps_per_second": 2.87 |
|
} |
|
], |
|
"logging_steps": 500, |
|
"max_steps": 15000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 2, |
|
"save_steps": 500, |
|
"total_flos": 6.314778574848e+16, |
|
"train_batch_size": 64, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|