|
{ |
|
"best_metric": 3.5567543506622314, |
|
"best_model_checkpoint": "/home/hpcpudu1/rds/hpc-work/data/pretrain-mds/led_pretrain/ver2/gen_model/Centrum_pretrain_base_batch_16_21-7-22.1/checkpoint-96500", |
|
"epoch": 9.269546276127357, |
|
"global_step": 100000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.0, |
|
"learning_rate": 3.0000000000000004e-09, |
|
"loss": 5.1238, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 2.97e-07, |
|
"loss": 4.8301, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 5.970000000000001e-07, |
|
"loss": 4.4653, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 8.97e-07, |
|
"loss": 4.2831, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.197e-06, |
|
"loss": 4.2033, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.497e-06, |
|
"loss": 4.1628, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"eval_loss": 4.073188304901123, |
|
"eval_runtime": 23.8328, |
|
"eval_samples_per_second": 105.821, |
|
"eval_steps_per_second": 6.63, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.7970000000000001e-06, |
|
"loss": 4.1047, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 2.097e-06, |
|
"loss": 4.1061, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 2.397e-06, |
|
"loss": 4.0666, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 2.6969999999999998e-06, |
|
"loss": 4.05, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 2.9970000000000003e-06, |
|
"loss": 4.0278, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"eval_loss": 3.9799606800079346, |
|
"eval_runtime": 23.808, |
|
"eval_samples_per_second": 105.931, |
|
"eval_steps_per_second": 6.636, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 3.297e-06, |
|
"loss": 4.0257, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 3.5970000000000005e-06, |
|
"loss": 4.0151, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 3.897e-06, |
|
"loss": 3.9934, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 4.197e-06, |
|
"loss": 4.0018, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 4.497e-06, |
|
"loss": 4.0008, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"eval_loss": 3.9282920360565186, |
|
"eval_runtime": 23.8216, |
|
"eval_samples_per_second": 105.87, |
|
"eval_steps_per_second": 6.633, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 4.797e-06, |
|
"loss": 3.98, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 5.097e-06, |
|
"loss": 3.9486, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 5.397e-06, |
|
"loss": 3.9664, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 5.697000000000001e-06, |
|
"loss": 3.9469, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 5.997e-06, |
|
"loss": 3.9564, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"eval_loss": 3.8940863609313965, |
|
"eval_runtime": 23.785, |
|
"eval_samples_per_second": 106.033, |
|
"eval_steps_per_second": 6.643, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 6.297e-06, |
|
"loss": 3.9533, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 6.5970000000000005e-06, |
|
"loss": 3.9263, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 6.897e-06, |
|
"loss": 3.9351, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 7.197e-06, |
|
"loss": 3.9339, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 7.497e-06, |
|
"loss": 3.9193, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"eval_loss": 3.878038167953491, |
|
"eval_runtime": 23.806, |
|
"eval_samples_per_second": 105.94, |
|
"eval_steps_per_second": 6.637, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 7.797e-06, |
|
"loss": 3.9323, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 8.096999999999999e-06, |
|
"loss": 3.9102, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 8.397e-06, |
|
"loss": 3.891, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 8.694e-06, |
|
"loss": 3.9072, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 8.994e-06, |
|
"loss": 3.9185, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"eval_loss": 3.8500914573669434, |
|
"eval_runtime": 23.7916, |
|
"eval_samples_per_second": 106.004, |
|
"eval_steps_per_second": 6.641, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 9.294000000000001e-06, |
|
"loss": 3.8927, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 9.594e-06, |
|
"loss": 3.8977, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 9.894e-06, |
|
"loss": 3.8906, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 1.0194e-05, |
|
"loss": 3.8869, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 1.0494e-05, |
|
"loss": 3.8881, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"eval_loss": 3.833404779434204, |
|
"eval_runtime": 23.8004, |
|
"eval_samples_per_second": 105.965, |
|
"eval_steps_per_second": 6.639, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 1.0794e-05, |
|
"loss": 3.8722, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 1.1094e-05, |
|
"loss": 3.8633, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 1.1394000000000001e-05, |
|
"loss": 3.8719, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 1.1694e-05, |
|
"loss": 3.8499, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 1.1994e-05, |
|
"loss": 3.8869, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"eval_loss": 3.8210906982421875, |
|
"eval_runtime": 23.7934, |
|
"eval_samples_per_second": 105.996, |
|
"eval_steps_per_second": 6.64, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 1.2294e-05, |
|
"loss": 3.8583, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 1.2594e-05, |
|
"loss": 3.8594, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.2894e-05, |
|
"loss": 3.8824, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.3194000000000001e-05, |
|
"loss": 3.8901, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.3494e-05, |
|
"loss": 3.876, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"eval_loss": 3.8056981563568115, |
|
"eval_runtime": 23.8047, |
|
"eval_samples_per_second": 105.946, |
|
"eval_steps_per_second": 6.637, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.3794e-05, |
|
"loss": 3.8473, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.4094000000000001e-05, |
|
"loss": 3.8718, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.4394e-05, |
|
"loss": 3.8671, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.4694e-05, |
|
"loss": 3.8396, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.4994e-05, |
|
"loss": 3.8552, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"eval_loss": 3.795402765274048, |
|
"eval_runtime": 23.8098, |
|
"eval_samples_per_second": 105.923, |
|
"eval_steps_per_second": 6.636, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.5294000000000003e-05, |
|
"loss": 3.838, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.5594e-05, |
|
"loss": 3.8231, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.5894e-05, |
|
"loss": 3.8139, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.6193999999999998e-05, |
|
"loss": 3.8249, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.6493999999999998e-05, |
|
"loss": 3.8198, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"eval_loss": 3.7860653400421143, |
|
"eval_runtime": 23.7811, |
|
"eval_samples_per_second": 106.051, |
|
"eval_steps_per_second": 6.644, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.6794e-05, |
|
"loss": 3.8332, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.7094e-05, |
|
"loss": 3.833, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.7394e-05, |
|
"loss": 3.8316, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.7694e-05, |
|
"loss": 3.8073, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.7994e-05, |
|
"loss": 3.8016, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"eval_loss": 3.7749924659729004, |
|
"eval_runtime": 23.805, |
|
"eval_samples_per_second": 105.944, |
|
"eval_steps_per_second": 6.637, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.8294e-05, |
|
"loss": 3.8169, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.8594000000000002e-05, |
|
"loss": 3.8168, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.8894000000000002e-05, |
|
"loss": 3.8178, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.9194000000000003e-05, |
|
"loss": 3.7942, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.9494000000000003e-05, |
|
"loss": 3.8033, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"eval_loss": 3.765125036239624, |
|
"eval_runtime": 23.776, |
|
"eval_samples_per_second": 106.074, |
|
"eval_steps_per_second": 6.645, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.9794e-05, |
|
"loss": 3.7867, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 2.0093999999999998e-05, |
|
"loss": 3.7787, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 2.0393999999999998e-05, |
|
"loss": 3.8017, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 2.0694e-05, |
|
"loss": 3.7995, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 2.0994e-05, |
|
"loss": 3.7927, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"eval_loss": 3.7527832984924316, |
|
"eval_runtime": 23.795, |
|
"eval_samples_per_second": 105.988, |
|
"eval_steps_per_second": 6.64, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 2.1294e-05, |
|
"loss": 3.788, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 2.1594e-05, |
|
"loss": 3.8054, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 2.1894e-05, |
|
"loss": 3.8069, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 2.2194e-05, |
|
"loss": 3.7761, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 2.2494000000000002e-05, |
|
"loss": 3.7978, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"eval_loss": 3.742873191833496, |
|
"eval_runtime": 23.8023, |
|
"eval_samples_per_second": 105.956, |
|
"eval_steps_per_second": 6.638, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 2.2794000000000002e-05, |
|
"loss": 3.7738, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 2.3094000000000003e-05, |
|
"loss": 3.7788, |
|
"step": 7700 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 2.3394000000000003e-05, |
|
"loss": 3.7823, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 2.3694e-05, |
|
"loss": 3.7879, |
|
"step": 7900 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 2.3993999999999998e-05, |
|
"loss": 3.7727, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"eval_loss": 3.7367067337036133, |
|
"eval_runtime": 23.7892, |
|
"eval_samples_per_second": 106.014, |
|
"eval_steps_per_second": 6.642, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 2.4293999999999998e-05, |
|
"loss": 3.7747, |
|
"step": 8100 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 2.4594e-05, |
|
"loss": 3.7716, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 2.4894e-05, |
|
"loss": 3.765, |
|
"step": 8300 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 2.5191e-05, |
|
"loss": 3.7819, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 2.5491e-05, |
|
"loss": 3.7634, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"eval_loss": 3.7275290489196777, |
|
"eval_runtime": 23.7785, |
|
"eval_samples_per_second": 106.062, |
|
"eval_steps_per_second": 6.645, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 2.5791e-05, |
|
"loss": 3.7757, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 2.6091e-05, |
|
"loss": 3.7559, |
|
"step": 8700 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 2.6391000000000002e-05, |
|
"loss": 3.7709, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 2.6688e-05, |
|
"loss": 3.7626, |
|
"step": 8900 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 2.6985e-05, |
|
"loss": 3.7395, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"eval_loss": 3.715789318084717, |
|
"eval_runtime": 23.7885, |
|
"eval_samples_per_second": 106.018, |
|
"eval_steps_per_second": 6.642, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 2.7285e-05, |
|
"loss": 3.7773, |
|
"step": 9100 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 2.7585e-05, |
|
"loss": 3.7273, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 2.7885e-05, |
|
"loss": 3.7598, |
|
"step": 9300 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 2.8185000000000002e-05, |
|
"loss": 3.7531, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 2.8485000000000003e-05, |
|
"loss": 3.7432, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"eval_loss": 3.706634283065796, |
|
"eval_runtime": 23.7692, |
|
"eval_samples_per_second": 106.103, |
|
"eval_steps_per_second": 6.647, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 2.8785e-05, |
|
"loss": 3.7297, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 2.9085e-05, |
|
"loss": 3.7366, |
|
"step": 9700 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 2.9385e-05, |
|
"loss": 3.7179, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 2.9685e-05, |
|
"loss": 3.7166, |
|
"step": 9900 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 2.9985000000000002e-05, |
|
"loss": 3.7623, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"eval_loss": 3.7039339542388916, |
|
"eval_runtime": 23.7947, |
|
"eval_samples_per_second": 105.99, |
|
"eval_steps_per_second": 6.64, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 2.9968333333333332e-05, |
|
"loss": 3.7351, |
|
"step": 10100 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 2.9935e-05, |
|
"loss": 3.7235, |
|
"step": 10200 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 2.9901666666666665e-05, |
|
"loss": 3.7207, |
|
"step": 10300 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 2.9868333333333333e-05, |
|
"loss": 3.7299, |
|
"step": 10400 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 2.9835e-05, |
|
"loss": 3.7182, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"eval_loss": 3.6904149055480957, |
|
"eval_runtime": 23.8525, |
|
"eval_samples_per_second": 105.733, |
|
"eval_steps_per_second": 6.624, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 2.9801666666666666e-05, |
|
"loss": 3.7165, |
|
"step": 10600 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 2.9768333333333334e-05, |
|
"loss": 3.7112, |
|
"step": 10700 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 2.9735e-05, |
|
"loss": 3.7438, |
|
"step": 10800 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 2.9701666666666667e-05, |
|
"loss": 3.6832, |
|
"step": 10900 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 2.9668333333333332e-05, |
|
"loss": 3.7146, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"eval_loss": 3.6881186962127686, |
|
"eval_runtime": 23.7931, |
|
"eval_samples_per_second": 105.997, |
|
"eval_steps_per_second": 6.641, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 2.9635e-05, |
|
"loss": 3.6748, |
|
"step": 11100 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 2.9601666666666665e-05, |
|
"loss": 3.6982, |
|
"step": 11200 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 2.9568333333333333e-05, |
|
"loss": 3.7015, |
|
"step": 11300 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 2.9535e-05, |
|
"loss": 3.6715, |
|
"step": 11400 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 2.9501666666666666e-05, |
|
"loss": 3.681, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"eval_loss": 3.679689407348633, |
|
"eval_runtime": 23.7803, |
|
"eval_samples_per_second": 106.054, |
|
"eval_steps_per_second": 6.644, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 2.9468333333333334e-05, |
|
"loss": 3.6938, |
|
"step": 11600 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 2.9435e-05, |
|
"loss": 3.6871, |
|
"step": 11700 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 2.9401666666666667e-05, |
|
"loss": 3.6833, |
|
"step": 11800 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 2.936833333333333e-05, |
|
"loss": 3.6986, |
|
"step": 11900 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 2.9335e-05, |
|
"loss": 3.6745, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"eval_loss": 3.674957275390625, |
|
"eval_runtime": 23.7927, |
|
"eval_samples_per_second": 105.999, |
|
"eval_steps_per_second": 6.641, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 2.9301666666666668e-05, |
|
"loss": 3.666, |
|
"step": 12100 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 2.9268333333333332e-05, |
|
"loss": 3.6803, |
|
"step": 12200 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 2.9235e-05, |
|
"loss": 3.6671, |
|
"step": 12300 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 2.9201666666666665e-05, |
|
"loss": 3.6783, |
|
"step": 12400 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 2.9168333333333333e-05, |
|
"loss": 3.6794, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"eval_loss": 3.6748008728027344, |
|
"eval_runtime": 23.8003, |
|
"eval_samples_per_second": 105.965, |
|
"eval_steps_per_second": 6.639, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 2.9134999999999998e-05, |
|
"loss": 3.69, |
|
"step": 12600 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 2.9101666666666666e-05, |
|
"loss": 3.6674, |
|
"step": 12700 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 2.9068333333333334e-05, |
|
"loss": 3.647, |
|
"step": 12800 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 2.9035e-05, |
|
"loss": 3.6818, |
|
"step": 12900 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 2.9001666666666667e-05, |
|
"loss": 3.6802, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"eval_loss": 3.6695618629455566, |
|
"eval_runtime": 23.7884, |
|
"eval_samples_per_second": 106.018, |
|
"eval_steps_per_second": 6.642, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 2.896866666666667e-05, |
|
"loss": 3.6639, |
|
"step": 13100 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 2.8935333333333334e-05, |
|
"loss": 3.6644, |
|
"step": 13200 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 2.8902000000000002e-05, |
|
"loss": 3.6877, |
|
"step": 13300 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 2.8868666666666667e-05, |
|
"loss": 3.6686, |
|
"step": 13400 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 2.8835333333333335e-05, |
|
"loss": 3.665, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"eval_loss": 3.6609461307525635, |
|
"eval_runtime": 23.7865, |
|
"eval_samples_per_second": 106.027, |
|
"eval_steps_per_second": 6.642, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"learning_rate": 2.8802e-05, |
|
"loss": 3.6411, |
|
"step": 13600 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 2.8768666666666668e-05, |
|
"loss": 3.6634, |
|
"step": 13700 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 2.8735333333333336e-05, |
|
"loss": 3.6865, |
|
"step": 13800 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 2.8702e-05, |
|
"loss": 3.6675, |
|
"step": 13900 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 2.866866666666667e-05, |
|
"loss": 3.6516, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"eval_loss": 3.663334608078003, |
|
"eval_runtime": 23.7962, |
|
"eval_samples_per_second": 105.983, |
|
"eval_steps_per_second": 6.64, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 2.8635333333333333e-05, |
|
"loss": 3.6612, |
|
"step": 14100 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 2.8602e-05, |
|
"loss": 3.68, |
|
"step": 14200 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 2.8568666666666666e-05, |
|
"loss": 3.6674, |
|
"step": 14300 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 2.8535333333333334e-05, |
|
"loss": 3.6875, |
|
"step": 14400 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"learning_rate": 2.8502e-05, |
|
"loss": 3.6577, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"eval_loss": 3.657306432723999, |
|
"eval_runtime": 23.7877, |
|
"eval_samples_per_second": 106.021, |
|
"eval_steps_per_second": 6.642, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 2.8468666666666667e-05, |
|
"loss": 3.6649, |
|
"step": 14600 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 2.8435333333333335e-05, |
|
"loss": 3.6539, |
|
"step": 14700 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 2.8402e-05, |
|
"loss": 3.6726, |
|
"step": 14800 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"learning_rate": 2.8368666666666668e-05, |
|
"loss": 3.6542, |
|
"step": 14900 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 2.8335333333333333e-05, |
|
"loss": 3.6409, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"eval_loss": 3.6518640518188477, |
|
"eval_runtime": 23.7734, |
|
"eval_samples_per_second": 106.085, |
|
"eval_steps_per_second": 6.646, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 2.8302e-05, |
|
"loss": 3.6629, |
|
"step": 15100 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 2.8268666666666666e-05, |
|
"loss": 3.6467, |
|
"step": 15200 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"learning_rate": 2.8235333333333334e-05, |
|
"loss": 3.6499, |
|
"step": 15300 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 2.8202000000000002e-05, |
|
"loss": 3.6623, |
|
"step": 15400 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 2.8168666666666667e-05, |
|
"loss": 3.6691, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"eval_loss": 3.6490323543548584, |
|
"eval_runtime": 23.8031, |
|
"eval_samples_per_second": 105.953, |
|
"eval_steps_per_second": 6.638, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 2.813566666666667e-05, |
|
"loss": 3.6585, |
|
"step": 15600 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"learning_rate": 2.8102333333333337e-05, |
|
"loss": 3.6582, |
|
"step": 15700 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"learning_rate": 2.8069000000000002e-05, |
|
"loss": 3.648, |
|
"step": 15800 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 2.803566666666667e-05, |
|
"loss": 3.6484, |
|
"step": 15900 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 2.8002333333333335e-05, |
|
"loss": 3.6521, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"eval_loss": 3.647477865219116, |
|
"eval_runtime": 23.7875, |
|
"eval_samples_per_second": 106.022, |
|
"eval_steps_per_second": 6.642, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 2.7969000000000003e-05, |
|
"loss": 3.6635, |
|
"step": 16100 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 2.7935666666666667e-05, |
|
"loss": 3.6423, |
|
"step": 16200 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 2.7902333333333336e-05, |
|
"loss": 3.6403, |
|
"step": 16300 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 2.7869000000000004e-05, |
|
"loss": 3.6515, |
|
"step": 16400 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 2.783566666666667e-05, |
|
"loss": 3.6435, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"eval_loss": 3.6465208530426025, |
|
"eval_runtime": 23.7862, |
|
"eval_samples_per_second": 106.028, |
|
"eval_steps_per_second": 6.643, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"learning_rate": 2.7802333333333337e-05, |
|
"loss": 3.667, |
|
"step": 16600 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 2.7769e-05, |
|
"loss": 3.6313, |
|
"step": 16700 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 2.773566666666667e-05, |
|
"loss": 3.6229, |
|
"step": 16800 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 2.7702333333333334e-05, |
|
"loss": 3.6347, |
|
"step": 16900 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"learning_rate": 2.7669000000000002e-05, |
|
"loss": 3.6466, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"eval_loss": 3.6391589641571045, |
|
"eval_runtime": 23.7988, |
|
"eval_samples_per_second": 105.972, |
|
"eval_steps_per_second": 6.639, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 2.7635666666666667e-05, |
|
"loss": 3.6402, |
|
"step": 17100 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 2.7602333333333335e-05, |
|
"loss": 3.6356, |
|
"step": 17200 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 2.7569000000000003e-05, |
|
"loss": 3.6462, |
|
"step": 17300 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 2.7535666666666668e-05, |
|
"loss": 3.6613, |
|
"step": 17400 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"learning_rate": 2.7502333333333336e-05, |
|
"loss": 3.644, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"eval_loss": 3.641881227493286, |
|
"eval_runtime": 23.9969, |
|
"eval_samples_per_second": 105.097, |
|
"eval_steps_per_second": 6.584, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 2.7469e-05, |
|
"loss": 3.641, |
|
"step": 17600 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 2.743566666666667e-05, |
|
"loss": 3.6439, |
|
"step": 17700 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 2.7402333333333334e-05, |
|
"loss": 3.642, |
|
"step": 17800 |
|
}, |
|
{ |
|
"epoch": 1.66, |
|
"learning_rate": 2.7369000000000002e-05, |
|
"loss": 3.6524, |
|
"step": 17900 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 2.733566666666667e-05, |
|
"loss": 3.6347, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"eval_loss": 3.6347177028656006, |
|
"eval_runtime": 23.7827, |
|
"eval_samples_per_second": 106.044, |
|
"eval_steps_per_second": 6.643, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 2.7302333333333335e-05, |
|
"loss": 3.6091, |
|
"step": 18100 |
|
}, |
|
{ |
|
"epoch": 1.69, |
|
"learning_rate": 2.7269000000000003e-05, |
|
"loss": 3.6392, |
|
"step": 18200 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"learning_rate": 2.7235666666666667e-05, |
|
"loss": 3.6385, |
|
"step": 18300 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 2.7202333333333336e-05, |
|
"loss": 3.6259, |
|
"step": 18400 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 2.7169e-05, |
|
"loss": 3.6205, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"eval_loss": 3.6328201293945312, |
|
"eval_runtime": 23.7927, |
|
"eval_samples_per_second": 105.999, |
|
"eval_steps_per_second": 6.641, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 2.713566666666667e-05, |
|
"loss": 3.6171, |
|
"step": 18600 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 2.7102333333333336e-05, |
|
"loss": 3.62, |
|
"step": 18700 |
|
}, |
|
{ |
|
"epoch": 1.74, |
|
"learning_rate": 2.7069e-05, |
|
"loss": 3.6423, |
|
"step": 18800 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 2.703566666666667e-05, |
|
"loss": 3.6225, |
|
"step": 18900 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 2.7002333333333334e-05, |
|
"loss": 3.6451, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"eval_loss": 3.630978584289551, |
|
"eval_runtime": 23.7828, |
|
"eval_samples_per_second": 106.043, |
|
"eval_steps_per_second": 6.643, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 2.6969000000000002e-05, |
|
"loss": 3.6364, |
|
"step": 19100 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"learning_rate": 2.6936e-05, |
|
"loss": 3.6305, |
|
"step": 19200 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 2.6902666666666666e-05, |
|
"loss": 3.6389, |
|
"step": 19300 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 2.6869333333333334e-05, |
|
"loss": 3.6359, |
|
"step": 19400 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 2.6836e-05, |
|
"loss": 3.6327, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"eval_loss": 3.6284360885620117, |
|
"eval_runtime": 23.7713, |
|
"eval_samples_per_second": 106.094, |
|
"eval_steps_per_second": 6.647, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 1.82, |
|
"learning_rate": 2.6802666666666667e-05, |
|
"loss": 3.6089, |
|
"step": 19600 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 2.6769333333333335e-05, |
|
"loss": 3.6254, |
|
"step": 19700 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 2.6736e-05, |
|
"loss": 3.6378, |
|
"step": 19800 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 2.6702666666666668e-05, |
|
"loss": 3.6374, |
|
"step": 19900 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 2.6669333333333332e-05, |
|
"loss": 3.6166, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"eval_loss": 3.6267168521881104, |
|
"eval_runtime": 23.7269, |
|
"eval_samples_per_second": 106.293, |
|
"eval_steps_per_second": 6.659, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.86, |
|
"learning_rate": 2.6636e-05, |
|
"loss": 3.6233, |
|
"step": 20100 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 2.6602666666666665e-05, |
|
"loss": 3.6276, |
|
"step": 20200 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 2.6569333333333333e-05, |
|
"loss": 3.64, |
|
"step": 20300 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 2.6535999999999998e-05, |
|
"loss": 3.6328, |
|
"step": 20400 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"learning_rate": 2.6502666666666666e-05, |
|
"loss": 3.622, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"eval_loss": 3.621175765991211, |
|
"eval_runtime": 23.806, |
|
"eval_samples_per_second": 105.94, |
|
"eval_steps_per_second": 6.637, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 1.91, |
|
"learning_rate": 2.6469333333333334e-05, |
|
"loss": 3.6092, |
|
"step": 20600 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 2.6436e-05, |
|
"loss": 3.6236, |
|
"step": 20700 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 2.6402666666666667e-05, |
|
"loss": 3.6293, |
|
"step": 20800 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"learning_rate": 2.6369333333333332e-05, |
|
"loss": 3.6257, |
|
"step": 20900 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 2.6336e-05, |
|
"loss": 3.6164, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"eval_loss": 3.619929075241089, |
|
"eval_runtime": 23.9488, |
|
"eval_samples_per_second": 105.308, |
|
"eval_steps_per_second": 6.597, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 2.6303333333333333e-05, |
|
"loss": 3.6132, |
|
"step": 21100 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 2.627e-05, |
|
"loss": 3.6215, |
|
"step": 21200 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 2.6236666666666666e-05, |
|
"loss": 3.6209, |
|
"step": 21300 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"learning_rate": 2.6203333333333334e-05, |
|
"loss": 3.6149, |
|
"step": 21400 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 2.6170333333333336e-05, |
|
"loss": 3.6178, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"eval_loss": 3.6201303005218506, |
|
"eval_runtime": 23.776, |
|
"eval_samples_per_second": 106.074, |
|
"eval_steps_per_second": 6.645, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 2.6137e-05, |
|
"loss": 3.6313, |
|
"step": 21600 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 2.610366666666667e-05, |
|
"loss": 3.5876, |
|
"step": 21700 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 2.6070333333333333e-05, |
|
"loss": 3.573, |
|
"step": 21800 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 2.6037e-05, |
|
"loss": 3.5804, |
|
"step": 21900 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 2.600366666666667e-05, |
|
"loss": 3.5892, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"eval_loss": 3.620147466659546, |
|
"eval_runtime": 23.7922, |
|
"eval_samples_per_second": 106.001, |
|
"eval_steps_per_second": 6.641, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 2.5970333333333334e-05, |
|
"loss": 3.5861, |
|
"step": 22100 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 2.5937000000000003e-05, |
|
"loss": 3.5823, |
|
"step": 22200 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 2.5903666666666667e-05, |
|
"loss": 3.5576, |
|
"step": 22300 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 2.5870333333333335e-05, |
|
"loss": 3.5834, |
|
"step": 22400 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 2.5837e-05, |
|
"loss": 3.5855, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"eval_loss": 3.6220951080322266, |
|
"eval_runtime": 23.7972, |
|
"eval_samples_per_second": 105.979, |
|
"eval_steps_per_second": 6.639, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 2.5803666666666668e-05, |
|
"loss": 3.5831, |
|
"step": 22600 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 2.5770333333333333e-05, |
|
"loss": 3.5785, |
|
"step": 22700 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 2.5737e-05, |
|
"loss": 3.5825, |
|
"step": 22800 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 2.570366666666667e-05, |
|
"loss": 3.5766, |
|
"step": 22900 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 2.5670333333333334e-05, |
|
"loss": 3.5658, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"eval_loss": 3.6193323135375977, |
|
"eval_runtime": 23.7837, |
|
"eval_samples_per_second": 106.039, |
|
"eval_steps_per_second": 6.643, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"learning_rate": 2.5637000000000002e-05, |
|
"loss": 3.5795, |
|
"step": 23100 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 2.5603666666666667e-05, |
|
"loss": 3.5644, |
|
"step": 23200 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 2.5570333333333335e-05, |
|
"loss": 3.5725, |
|
"step": 23300 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 2.5537e-05, |
|
"loss": 3.5833, |
|
"step": 23400 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 2.5503666666666668e-05, |
|
"loss": 3.5916, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"eval_loss": 3.6143603324890137, |
|
"eval_runtime": 23.7839, |
|
"eval_samples_per_second": 106.038, |
|
"eval_steps_per_second": 6.643, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 2.5470333333333336e-05, |
|
"loss": 3.5665, |
|
"step": 23600 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 2.5437e-05, |
|
"loss": 3.577, |
|
"step": 23700 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 2.540366666666667e-05, |
|
"loss": 3.5749, |
|
"step": 23800 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 2.5370333333333333e-05, |
|
"loss": 3.5777, |
|
"step": 23900 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 2.5337e-05, |
|
"loss": 3.5767, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"eval_loss": 3.6100852489471436, |
|
"eval_runtime": 23.7895, |
|
"eval_samples_per_second": 106.013, |
|
"eval_steps_per_second": 6.642, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 2.5303666666666666e-05, |
|
"loss": 3.557, |
|
"step": 24100 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 2.5270333333333334e-05, |
|
"loss": 3.5769, |
|
"step": 24200 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 2.5237000000000002e-05, |
|
"loss": 3.5622, |
|
"step": 24300 |
|
}, |
|
{ |
|
"epoch": 2.26, |
|
"learning_rate": 2.5203666666666667e-05, |
|
"loss": 3.571, |
|
"step": 24400 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 2.5170333333333335e-05, |
|
"loss": 3.5809, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"eval_loss": 3.611521005630493, |
|
"eval_runtime": 23.7847, |
|
"eval_samples_per_second": 106.035, |
|
"eval_steps_per_second": 6.643, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 2.5137e-05, |
|
"loss": 3.583, |
|
"step": 24600 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 2.5103666666666668e-05, |
|
"loss": 3.5867, |
|
"step": 24700 |
|
}, |
|
{ |
|
"epoch": 2.3, |
|
"learning_rate": 2.5070333333333333e-05, |
|
"loss": 3.5639, |
|
"step": 24800 |
|
}, |
|
{ |
|
"epoch": 2.31, |
|
"learning_rate": 2.5037e-05, |
|
"loss": 3.5715, |
|
"step": 24900 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 2.5003666666666666e-05, |
|
"loss": 3.5561, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"eval_loss": 3.611006021499634, |
|
"eval_runtime": 23.7869, |
|
"eval_samples_per_second": 106.025, |
|
"eval_steps_per_second": 6.642, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 2.4970333333333334e-05, |
|
"loss": 3.5542, |
|
"step": 25100 |
|
}, |
|
{ |
|
"epoch": 2.34, |
|
"learning_rate": 2.4937000000000002e-05, |
|
"loss": 3.589, |
|
"step": 25200 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 2.4903666666666667e-05, |
|
"loss": 3.5546, |
|
"step": 25300 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 2.4870333333333335e-05, |
|
"loss": 3.547, |
|
"step": 25400 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 2.4837e-05, |
|
"loss": 3.5831, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"eval_loss": 3.6079983711242676, |
|
"eval_runtime": 23.8882, |
|
"eval_samples_per_second": 105.575, |
|
"eval_steps_per_second": 6.614, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 2.37, |
|
"learning_rate": 2.4803666666666668e-05, |
|
"loss": 3.5712, |
|
"step": 25600 |
|
}, |
|
{ |
|
"epoch": 2.38, |
|
"learning_rate": 2.4770333333333332e-05, |
|
"loss": 3.5836, |
|
"step": 25700 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 2.4737e-05, |
|
"loss": 3.5661, |
|
"step": 25800 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 2.470366666666667e-05, |
|
"loss": 3.5508, |
|
"step": 25900 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 2.4670666666666667e-05, |
|
"loss": 3.5551, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"eval_loss": 3.612078905105591, |
|
"eval_runtime": 23.7677, |
|
"eval_samples_per_second": 106.11, |
|
"eval_steps_per_second": 6.648, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 2.42, |
|
"learning_rate": 2.4637333333333336e-05, |
|
"loss": 3.564, |
|
"step": 26100 |
|
}, |
|
{ |
|
"epoch": 2.43, |
|
"learning_rate": 2.4604000000000004e-05, |
|
"loss": 3.5561, |
|
"step": 26200 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 2.457066666666667e-05, |
|
"loss": 3.5639, |
|
"step": 26300 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 2.4537333333333336e-05, |
|
"loss": 3.5583, |
|
"step": 26400 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"learning_rate": 2.4504e-05, |
|
"loss": 3.5588, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"eval_loss": 3.6071577072143555, |
|
"eval_runtime": 23.8054, |
|
"eval_samples_per_second": 105.942, |
|
"eval_steps_per_second": 6.637, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 2.447066666666667e-05, |
|
"loss": 3.5733, |
|
"step": 26600 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 2.4437333333333334e-05, |
|
"loss": 3.5882, |
|
"step": 26700 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 2.4404000000000002e-05, |
|
"loss": 3.5682, |
|
"step": 26800 |
|
}, |
|
{ |
|
"epoch": 2.49, |
|
"learning_rate": 2.437066666666667e-05, |
|
"loss": 3.5627, |
|
"step": 26900 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"learning_rate": 2.4337333333333335e-05, |
|
"loss": 3.5645, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"eval_loss": 3.6056134700775146, |
|
"eval_runtime": 23.7971, |
|
"eval_samples_per_second": 105.979, |
|
"eval_steps_per_second": 6.639, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 2.4304000000000003e-05, |
|
"loss": 3.5442, |
|
"step": 27100 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 2.4270666666666668e-05, |
|
"loss": 3.5718, |
|
"step": 27200 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 2.4237333333333336e-05, |
|
"loss": 3.5869, |
|
"step": 27300 |
|
}, |
|
{ |
|
"epoch": 2.54, |
|
"learning_rate": 2.4204e-05, |
|
"loss": 3.5762, |
|
"step": 27400 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 2.417066666666667e-05, |
|
"loss": 3.5804, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"eval_loss": 3.6037800312042236, |
|
"eval_runtime": 23.7846, |
|
"eval_samples_per_second": 106.035, |
|
"eval_steps_per_second": 6.643, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 2.4137333333333334e-05, |
|
"loss": 3.567, |
|
"step": 27600 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 2.4104e-05, |
|
"loss": 3.5534, |
|
"step": 27700 |
|
}, |
|
{ |
|
"epoch": 2.58, |
|
"learning_rate": 2.407066666666667e-05, |
|
"loss": 3.568, |
|
"step": 27800 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 2.4037333333333334e-05, |
|
"loss": 3.5745, |
|
"step": 27900 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 2.4004000000000003e-05, |
|
"loss": 3.5712, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"eval_loss": 3.605182647705078, |
|
"eval_runtime": 23.7889, |
|
"eval_samples_per_second": 106.016, |
|
"eval_steps_per_second": 6.642, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 2.3970666666666667e-05, |
|
"loss": 3.5636, |
|
"step": 28100 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 2.3937333333333335e-05, |
|
"loss": 3.5593, |
|
"step": 28200 |
|
}, |
|
{ |
|
"epoch": 2.62, |
|
"learning_rate": 2.3904e-05, |
|
"loss": 3.5347, |
|
"step": 28300 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 2.3870666666666668e-05, |
|
"loss": 3.5813, |
|
"step": 28400 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 2.3837333333333336e-05, |
|
"loss": 3.5494, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"eval_loss": 3.601443290710449, |
|
"eval_runtime": 23.783, |
|
"eval_samples_per_second": 106.042, |
|
"eval_steps_per_second": 6.643, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 2.3804e-05, |
|
"loss": 3.5589, |
|
"step": 28600 |
|
}, |
|
{ |
|
"epoch": 2.66, |
|
"learning_rate": 2.377066666666667e-05, |
|
"loss": 3.583, |
|
"step": 28700 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 2.3737666666666668e-05, |
|
"loss": 3.5648, |
|
"step": 28800 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 2.3704333333333333e-05, |
|
"loss": 3.549, |
|
"step": 28900 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 2.3671e-05, |
|
"loss": 3.582, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"eval_loss": 3.599480152130127, |
|
"eval_runtime": 23.7091, |
|
"eval_samples_per_second": 106.373, |
|
"eval_steps_per_second": 6.664, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 2.7, |
|
"learning_rate": 2.3637666666666666e-05, |
|
"loss": 3.5619, |
|
"step": 29100 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 2.3604333333333334e-05, |
|
"loss": 3.5682, |
|
"step": 29200 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 2.3571e-05, |
|
"loss": 3.5896, |
|
"step": 29300 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 2.3537666666666667e-05, |
|
"loss": 3.552, |
|
"step": 29400 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 2.3504333333333335e-05, |
|
"loss": 3.5487, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"eval_loss": 3.6051015853881836, |
|
"eval_runtime": 23.8293, |
|
"eval_samples_per_second": 105.836, |
|
"eval_steps_per_second": 6.63, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 2.74, |
|
"learning_rate": 2.3471e-05, |
|
"loss": 3.5452, |
|
"step": 29600 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 2.3437666666666668e-05, |
|
"loss": 3.5542, |
|
"step": 29700 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 2.3404333333333332e-05, |
|
"loss": 3.5642, |
|
"step": 29800 |
|
}, |
|
{ |
|
"epoch": 2.77, |
|
"learning_rate": 2.3371e-05, |
|
"loss": 3.5566, |
|
"step": 29900 |
|
}, |
|
{ |
|
"epoch": 2.78, |
|
"learning_rate": 2.3337666666666665e-05, |
|
"loss": 3.5709, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.78, |
|
"eval_loss": 3.5953872203826904, |
|
"eval_runtime": 23.8304, |
|
"eval_samples_per_second": 105.831, |
|
"eval_steps_per_second": 6.63, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 2.3304333333333333e-05, |
|
"loss": 3.5628, |
|
"step": 30100 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 2.3270999999999998e-05, |
|
"loss": 3.5695, |
|
"step": 30200 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 2.3237666666666666e-05, |
|
"loss": 3.5499, |
|
"step": 30300 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"learning_rate": 2.3204333333333334e-05, |
|
"loss": 3.5622, |
|
"step": 30400 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 2.3171e-05, |
|
"loss": 3.5546, |
|
"step": 30500 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"eval_loss": 3.5941429138183594, |
|
"eval_runtime": 23.8009, |
|
"eval_samples_per_second": 105.963, |
|
"eval_steps_per_second": 6.638, |
|
"step": 30500 |
|
}, |
|
{ |
|
"epoch": 2.84, |
|
"learning_rate": 2.3137666666666667e-05, |
|
"loss": 3.5545, |
|
"step": 30600 |
|
}, |
|
{ |
|
"epoch": 2.85, |
|
"learning_rate": 2.3104333333333332e-05, |
|
"loss": 3.5677, |
|
"step": 30700 |
|
}, |
|
{ |
|
"epoch": 2.85, |
|
"learning_rate": 2.3071e-05, |
|
"loss": 3.5301, |
|
"step": 30800 |
|
}, |
|
{ |
|
"epoch": 2.86, |
|
"learning_rate": 2.3037666666666665e-05, |
|
"loss": 3.5521, |
|
"step": 30900 |
|
}, |
|
{ |
|
"epoch": 2.87, |
|
"learning_rate": 2.3004333333333333e-05, |
|
"loss": 3.5525, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 2.87, |
|
"eval_loss": 3.5951895713806152, |
|
"eval_runtime": 23.8131, |
|
"eval_samples_per_second": 105.908, |
|
"eval_steps_per_second": 6.635, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 2.2971e-05, |
|
"loss": 3.5602, |
|
"step": 31100 |
|
}, |
|
{ |
|
"epoch": 2.89, |
|
"learning_rate": 2.2937666666666666e-05, |
|
"loss": 3.5652, |
|
"step": 31200 |
|
}, |
|
{ |
|
"epoch": 2.9, |
|
"learning_rate": 2.2904333333333334e-05, |
|
"loss": 3.5511, |
|
"step": 31300 |
|
}, |
|
{ |
|
"epoch": 2.91, |
|
"learning_rate": 2.2871333333333336e-05, |
|
"loss": 3.5592, |
|
"step": 31400 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"learning_rate": 2.2838e-05, |
|
"loss": 3.5603, |
|
"step": 31500 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"eval_loss": 3.597166061401367, |
|
"eval_runtime": 23.7699, |
|
"eval_samples_per_second": 106.1, |
|
"eval_steps_per_second": 6.647, |
|
"step": 31500 |
|
}, |
|
{ |
|
"epoch": 2.93, |
|
"learning_rate": 2.280466666666667e-05, |
|
"loss": 3.5604, |
|
"step": 31600 |
|
}, |
|
{ |
|
"epoch": 2.94, |
|
"learning_rate": 2.2771333333333333e-05, |
|
"loss": 3.5652, |
|
"step": 31700 |
|
}, |
|
{ |
|
"epoch": 2.95, |
|
"learning_rate": 2.2738e-05, |
|
"loss": 3.5589, |
|
"step": 31800 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"learning_rate": 2.2704666666666666e-05, |
|
"loss": 3.5469, |
|
"step": 31900 |
|
}, |
|
{ |
|
"epoch": 2.97, |
|
"learning_rate": 2.2671666666666665e-05, |
|
"loss": 3.5572, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 2.97, |
|
"eval_loss": 3.5946662425994873, |
|
"eval_runtime": 23.7852, |
|
"eval_samples_per_second": 106.032, |
|
"eval_steps_per_second": 6.643, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 2.98, |
|
"learning_rate": 2.2638333333333333e-05, |
|
"loss": 3.5633, |
|
"step": 32100 |
|
}, |
|
{ |
|
"epoch": 2.98, |
|
"learning_rate": 2.2604999999999998e-05, |
|
"loss": 3.5561, |
|
"step": 32200 |
|
}, |
|
{ |
|
"epoch": 2.99, |
|
"learning_rate": 2.2571666666666666e-05, |
|
"loss": 3.5372, |
|
"step": 32300 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 2.2538333333333334e-05, |
|
"loss": 3.565, |
|
"step": 32400 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"learning_rate": 2.2505e-05, |
|
"loss": 3.5106, |
|
"step": 32500 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"eval_loss": 3.5952203273773193, |
|
"eval_runtime": 23.7897, |
|
"eval_samples_per_second": 106.012, |
|
"eval_steps_per_second": 6.642, |
|
"step": 32500 |
|
}, |
|
{ |
|
"epoch": 3.02, |
|
"learning_rate": 2.2471666666666667e-05, |
|
"loss": 3.5149, |
|
"step": 32600 |
|
}, |
|
{ |
|
"epoch": 3.03, |
|
"learning_rate": 2.243866666666667e-05, |
|
"loss": 3.5158, |
|
"step": 32700 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"learning_rate": 2.2405333333333334e-05, |
|
"loss": 3.5136, |
|
"step": 32800 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"learning_rate": 2.2372000000000002e-05, |
|
"loss": 3.5401, |
|
"step": 32900 |
|
}, |
|
{ |
|
"epoch": 3.06, |
|
"learning_rate": 2.2338666666666667e-05, |
|
"loss": 3.5142, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 3.06, |
|
"eval_loss": 3.5936639308929443, |
|
"eval_runtime": 23.7767, |
|
"eval_samples_per_second": 106.07, |
|
"eval_steps_per_second": 6.645, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 2.2305333333333335e-05, |
|
"loss": 3.5154, |
|
"step": 33100 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"learning_rate": 2.2272e-05, |
|
"loss": 3.5303, |
|
"step": 33200 |
|
}, |
|
{ |
|
"epoch": 3.09, |
|
"learning_rate": 2.2238666666666668e-05, |
|
"loss": 3.5124, |
|
"step": 33300 |
|
}, |
|
{ |
|
"epoch": 3.1, |
|
"learning_rate": 2.2205333333333336e-05, |
|
"loss": 3.5242, |
|
"step": 33400 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 2.2172e-05, |
|
"loss": 3.506, |
|
"step": 33500 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"eval_loss": 3.5964934825897217, |
|
"eval_runtime": 23.7863, |
|
"eval_samples_per_second": 106.028, |
|
"eval_steps_per_second": 6.642, |
|
"step": 33500 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 2.213866666666667e-05, |
|
"loss": 3.5077, |
|
"step": 33600 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"learning_rate": 2.2105333333333333e-05, |
|
"loss": 3.501, |
|
"step": 33700 |
|
}, |
|
{ |
|
"epoch": 3.13, |
|
"learning_rate": 2.2072e-05, |
|
"loss": 3.512, |
|
"step": 33800 |
|
}, |
|
{ |
|
"epoch": 3.14, |
|
"learning_rate": 2.2038666666666666e-05, |
|
"loss": 3.5373, |
|
"step": 33900 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"learning_rate": 2.2005333333333334e-05, |
|
"loss": 3.515, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"eval_loss": 3.5931718349456787, |
|
"eval_runtime": 23.7854, |
|
"eval_samples_per_second": 106.031, |
|
"eval_steps_per_second": 6.643, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"learning_rate": 2.1972000000000002e-05, |
|
"loss": 3.5225, |
|
"step": 34100 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 2.1938666666666667e-05, |
|
"loss": 3.4866, |
|
"step": 34200 |
|
}, |
|
{ |
|
"epoch": 3.18, |
|
"learning_rate": 2.1905333333333335e-05, |
|
"loss": 3.526, |
|
"step": 34300 |
|
}, |
|
{ |
|
"epoch": 3.19, |
|
"learning_rate": 2.1872e-05, |
|
"loss": 3.5036, |
|
"step": 34400 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 2.1838666666666668e-05, |
|
"loss": 3.5247, |
|
"step": 34500 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"eval_loss": 3.5951099395751953, |
|
"eval_runtime": 23.7873, |
|
"eval_samples_per_second": 106.023, |
|
"eval_steps_per_second": 6.642, |
|
"step": 34500 |
|
}, |
|
{ |
|
"epoch": 3.21, |
|
"learning_rate": 2.1805333333333333e-05, |
|
"loss": 3.528, |
|
"step": 34600 |
|
}, |
|
{ |
|
"epoch": 3.22, |
|
"learning_rate": 2.1772e-05, |
|
"loss": 3.5123, |
|
"step": 34700 |
|
}, |
|
{ |
|
"epoch": 3.23, |
|
"learning_rate": 2.1738666666666666e-05, |
|
"loss": 3.5277, |
|
"step": 34800 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 2.1705333333333334e-05, |
|
"loss": 3.522, |
|
"step": 34900 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 2.1672000000000002e-05, |
|
"loss": 3.5384, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"eval_loss": 3.591693878173828, |
|
"eval_runtime": 23.7823, |
|
"eval_samples_per_second": 106.045, |
|
"eval_steps_per_second": 6.644, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"learning_rate": 2.1638666666666667e-05, |
|
"loss": 3.526, |
|
"step": 35100 |
|
}, |
|
{ |
|
"epoch": 3.26, |
|
"learning_rate": 2.1605333333333335e-05, |
|
"loss": 3.5137, |
|
"step": 35200 |
|
}, |
|
{ |
|
"epoch": 3.27, |
|
"learning_rate": 2.1572e-05, |
|
"loss": 3.525, |
|
"step": 35300 |
|
}, |
|
{ |
|
"epoch": 3.28, |
|
"learning_rate": 2.1538666666666668e-05, |
|
"loss": 3.519, |
|
"step": 35400 |
|
}, |
|
{ |
|
"epoch": 3.29, |
|
"learning_rate": 2.1505666666666666e-05, |
|
"loss": 3.5165, |
|
"step": 35500 |
|
}, |
|
{ |
|
"epoch": 3.29, |
|
"eval_loss": 3.5887227058410645, |
|
"eval_runtime": 23.8133, |
|
"eval_samples_per_second": 105.907, |
|
"eval_steps_per_second": 6.635, |
|
"step": 35500 |
|
}, |
|
{ |
|
"epoch": 3.3, |
|
"learning_rate": 2.147233333333333e-05, |
|
"loss": 3.5157, |
|
"step": 35600 |
|
}, |
|
{ |
|
"epoch": 3.31, |
|
"learning_rate": 2.1439e-05, |
|
"loss": 3.5363, |
|
"step": 35700 |
|
}, |
|
{ |
|
"epoch": 3.32, |
|
"learning_rate": 2.1405666666666664e-05, |
|
"loss": 3.5146, |
|
"step": 35800 |
|
}, |
|
{ |
|
"epoch": 3.33, |
|
"learning_rate": 2.1372333333333332e-05, |
|
"loss": 3.5313, |
|
"step": 35900 |
|
}, |
|
{ |
|
"epoch": 3.34, |
|
"learning_rate": 2.1339e-05, |
|
"loss": 3.5187, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 3.34, |
|
"eval_loss": 3.5865957736968994, |
|
"eval_runtime": 23.7698, |
|
"eval_samples_per_second": 106.101, |
|
"eval_steps_per_second": 6.647, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 3.35, |
|
"learning_rate": 2.1305666666666668e-05, |
|
"loss": 3.5181, |
|
"step": 36100 |
|
}, |
|
{ |
|
"epoch": 3.36, |
|
"learning_rate": 2.1272333333333336e-05, |
|
"loss": 3.5087, |
|
"step": 36200 |
|
}, |
|
{ |
|
"epoch": 3.36, |
|
"learning_rate": 2.1239e-05, |
|
"loss": 3.5211, |
|
"step": 36300 |
|
}, |
|
{ |
|
"epoch": 3.37, |
|
"learning_rate": 2.120566666666667e-05, |
|
"loss": 3.5419, |
|
"step": 36400 |
|
}, |
|
{ |
|
"epoch": 3.38, |
|
"learning_rate": 2.1172333333333334e-05, |
|
"loss": 3.5097, |
|
"step": 36500 |
|
}, |
|
{ |
|
"epoch": 3.38, |
|
"eval_loss": 3.5894858837127686, |
|
"eval_runtime": 23.8034, |
|
"eval_samples_per_second": 105.951, |
|
"eval_steps_per_second": 6.638, |
|
"step": 36500 |
|
}, |
|
{ |
|
"epoch": 3.39, |
|
"learning_rate": 2.1139000000000002e-05, |
|
"loss": 3.525, |
|
"step": 36600 |
|
}, |
|
{ |
|
"epoch": 3.4, |
|
"learning_rate": 2.110566666666667e-05, |
|
"loss": 3.5083, |
|
"step": 36700 |
|
}, |
|
{ |
|
"epoch": 3.41, |
|
"learning_rate": 2.1072333333333335e-05, |
|
"loss": 3.4998, |
|
"step": 36800 |
|
}, |
|
{ |
|
"epoch": 3.42, |
|
"learning_rate": 2.1039000000000003e-05, |
|
"loss": 3.5201, |
|
"step": 36900 |
|
}, |
|
{ |
|
"epoch": 3.43, |
|
"learning_rate": 2.1005666666666668e-05, |
|
"loss": 3.5136, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 3.43, |
|
"eval_loss": 3.587806224822998, |
|
"eval_runtime": 23.7779, |
|
"eval_samples_per_second": 106.065, |
|
"eval_steps_per_second": 6.645, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 3.44, |
|
"learning_rate": 2.0972333333333336e-05, |
|
"loss": 3.5331, |
|
"step": 37100 |
|
}, |
|
{ |
|
"epoch": 3.45, |
|
"learning_rate": 2.0939e-05, |
|
"loss": 3.5299, |
|
"step": 37200 |
|
}, |
|
{ |
|
"epoch": 3.46, |
|
"learning_rate": 2.090566666666667e-05, |
|
"loss": 3.5274, |
|
"step": 37300 |
|
}, |
|
{ |
|
"epoch": 3.47, |
|
"learning_rate": 2.0872333333333337e-05, |
|
"loss": 3.5212, |
|
"step": 37400 |
|
}, |
|
{ |
|
"epoch": 3.48, |
|
"learning_rate": 2.0839e-05, |
|
"loss": 3.5095, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 3.48, |
|
"eval_loss": 3.5838775634765625, |
|
"eval_runtime": 23.7902, |
|
"eval_samples_per_second": 106.01, |
|
"eval_steps_per_second": 6.641, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 3.49, |
|
"learning_rate": 2.080566666666667e-05, |
|
"loss": 3.5125, |
|
"step": 37600 |
|
}, |
|
{ |
|
"epoch": 3.49, |
|
"learning_rate": 2.0772333333333334e-05, |
|
"loss": 3.4908, |
|
"step": 37700 |
|
}, |
|
{ |
|
"epoch": 3.5, |
|
"learning_rate": 2.0739000000000003e-05, |
|
"loss": 3.5018, |
|
"step": 37800 |
|
}, |
|
{ |
|
"epoch": 3.51, |
|
"learning_rate": 2.0705666666666667e-05, |
|
"loss": 3.5034, |
|
"step": 37900 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"learning_rate": 2.0672333333333335e-05, |
|
"loss": 3.5226, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"eval_loss": 3.5859289169311523, |
|
"eval_runtime": 23.7148, |
|
"eval_samples_per_second": 106.347, |
|
"eval_steps_per_second": 6.663, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 3.53, |
|
"learning_rate": 2.0639e-05, |
|
"loss": 3.5247, |
|
"step": 38100 |
|
}, |
|
{ |
|
"epoch": 3.54, |
|
"learning_rate": 2.0605666666666668e-05, |
|
"loss": 3.5342, |
|
"step": 38200 |
|
}, |
|
{ |
|
"epoch": 3.55, |
|
"learning_rate": 2.0572333333333336e-05, |
|
"loss": 3.5144, |
|
"step": 38300 |
|
}, |
|
{ |
|
"epoch": 3.56, |
|
"learning_rate": 2.0539e-05, |
|
"loss": 3.5106, |
|
"step": 38400 |
|
}, |
|
{ |
|
"epoch": 3.57, |
|
"learning_rate": 2.050566666666667e-05, |
|
"loss": 3.5277, |
|
"step": 38500 |
|
}, |
|
{ |
|
"epoch": 3.57, |
|
"eval_loss": 3.5827441215515137, |
|
"eval_runtime": 23.8131, |
|
"eval_samples_per_second": 105.908, |
|
"eval_steps_per_second": 6.635, |
|
"step": 38500 |
|
}, |
|
{ |
|
"epoch": 3.58, |
|
"learning_rate": 2.0472333333333334e-05, |
|
"loss": 3.4914, |
|
"step": 38600 |
|
}, |
|
{ |
|
"epoch": 3.59, |
|
"learning_rate": 2.0439000000000002e-05, |
|
"loss": 3.5394, |
|
"step": 38700 |
|
}, |
|
{ |
|
"epoch": 3.6, |
|
"learning_rate": 2.0405666666666667e-05, |
|
"loss": 3.5314, |
|
"step": 38800 |
|
}, |
|
{ |
|
"epoch": 3.61, |
|
"learning_rate": 2.0372333333333335e-05, |
|
"loss": 3.5096, |
|
"step": 38900 |
|
}, |
|
{ |
|
"epoch": 3.62, |
|
"learning_rate": 2.0339000000000003e-05, |
|
"loss": 3.4959, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 3.62, |
|
"eval_loss": 3.5846378803253174, |
|
"eval_runtime": 23.7913, |
|
"eval_samples_per_second": 106.005, |
|
"eval_steps_per_second": 6.641, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 3.62, |
|
"learning_rate": 2.0305666666666668e-05, |
|
"loss": 3.51, |
|
"step": 39100 |
|
}, |
|
{ |
|
"epoch": 3.63, |
|
"learning_rate": 2.0272333333333336e-05, |
|
"loss": 3.507, |
|
"step": 39200 |
|
}, |
|
{ |
|
"epoch": 3.64, |
|
"learning_rate": 2.0239e-05, |
|
"loss": 3.5048, |
|
"step": 39300 |
|
}, |
|
{ |
|
"epoch": 3.65, |
|
"learning_rate": 2.020566666666667e-05, |
|
"loss": 3.525, |
|
"step": 39400 |
|
}, |
|
{ |
|
"epoch": 3.66, |
|
"learning_rate": 2.0172333333333333e-05, |
|
"loss": 3.5003, |
|
"step": 39500 |
|
}, |
|
{ |
|
"epoch": 3.66, |
|
"eval_loss": 3.5823278427124023, |
|
"eval_runtime": 23.8021, |
|
"eval_samples_per_second": 105.957, |
|
"eval_steps_per_second": 6.638, |
|
"step": 39500 |
|
}, |
|
{ |
|
"epoch": 3.67, |
|
"learning_rate": 2.0139e-05, |
|
"loss": 3.4986, |
|
"step": 39600 |
|
}, |
|
{ |
|
"epoch": 3.68, |
|
"learning_rate": 2.0105666666666666e-05, |
|
"loss": 3.516, |
|
"step": 39700 |
|
}, |
|
{ |
|
"epoch": 3.69, |
|
"learning_rate": 2.0072333333333334e-05, |
|
"loss": 3.5114, |
|
"step": 39800 |
|
}, |
|
{ |
|
"epoch": 3.7, |
|
"learning_rate": 2.0039000000000002e-05, |
|
"loss": 3.5071, |
|
"step": 39900 |
|
}, |
|
{ |
|
"epoch": 3.71, |
|
"learning_rate": 2.0005666666666667e-05, |
|
"loss": 3.5095, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 3.71, |
|
"eval_loss": 3.581997871398926, |
|
"eval_runtime": 23.772, |
|
"eval_samples_per_second": 106.091, |
|
"eval_steps_per_second": 6.646, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 3.72, |
|
"learning_rate": 1.9972333333333335e-05, |
|
"loss": 3.5524, |
|
"step": 40100 |
|
}, |
|
{ |
|
"epoch": 3.73, |
|
"learning_rate": 1.9939e-05, |
|
"loss": 3.5158, |
|
"step": 40200 |
|
}, |
|
{ |
|
"epoch": 3.74, |
|
"learning_rate": 1.9905666666666668e-05, |
|
"loss": 3.4829, |
|
"step": 40300 |
|
}, |
|
{ |
|
"epoch": 3.74, |
|
"learning_rate": 1.9872333333333333e-05, |
|
"loss": 3.498, |
|
"step": 40400 |
|
}, |
|
{ |
|
"epoch": 3.75, |
|
"learning_rate": 1.9839e-05, |
|
"loss": 3.4814, |
|
"step": 40500 |
|
}, |
|
{ |
|
"epoch": 3.75, |
|
"eval_loss": 3.5854456424713135, |
|
"eval_runtime": 23.7663, |
|
"eval_samples_per_second": 106.117, |
|
"eval_steps_per_second": 6.648, |
|
"step": 40500 |
|
}, |
|
{ |
|
"epoch": 3.76, |
|
"learning_rate": 1.980566666666667e-05, |
|
"loss": 3.5146, |
|
"step": 40600 |
|
}, |
|
{ |
|
"epoch": 3.77, |
|
"learning_rate": 1.9772333333333334e-05, |
|
"loss": 3.5109, |
|
"step": 40700 |
|
}, |
|
{ |
|
"epoch": 3.78, |
|
"learning_rate": 1.9739000000000002e-05, |
|
"loss": 3.5271, |
|
"step": 40800 |
|
}, |
|
{ |
|
"epoch": 3.79, |
|
"learning_rate": 1.9705666666666667e-05, |
|
"loss": 3.5158, |
|
"step": 40900 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"learning_rate": 1.9672333333333335e-05, |
|
"loss": 3.5173, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"eval_loss": 3.5796046257019043, |
|
"eval_runtime": 23.7829, |
|
"eval_samples_per_second": 106.043, |
|
"eval_steps_per_second": 6.643, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 3.81, |
|
"learning_rate": 1.9639e-05, |
|
"loss": 3.5034, |
|
"step": 41100 |
|
}, |
|
{ |
|
"epoch": 3.82, |
|
"learning_rate": 1.9605666666666668e-05, |
|
"loss": 3.5118, |
|
"step": 41200 |
|
}, |
|
{ |
|
"epoch": 3.83, |
|
"learning_rate": 1.9572333333333336e-05, |
|
"loss": 3.5265, |
|
"step": 41300 |
|
}, |
|
{ |
|
"epoch": 3.84, |
|
"learning_rate": 1.9539e-05, |
|
"loss": 3.513, |
|
"step": 41400 |
|
}, |
|
{ |
|
"epoch": 3.85, |
|
"learning_rate": 1.950566666666667e-05, |
|
"loss": 3.4968, |
|
"step": 41500 |
|
}, |
|
{ |
|
"epoch": 3.85, |
|
"eval_loss": 3.5810136795043945, |
|
"eval_runtime": 23.9055, |
|
"eval_samples_per_second": 105.499, |
|
"eval_steps_per_second": 6.609, |
|
"step": 41500 |
|
}, |
|
{ |
|
"epoch": 3.86, |
|
"learning_rate": 1.9472333333333333e-05, |
|
"loss": 3.5123, |
|
"step": 41600 |
|
}, |
|
{ |
|
"epoch": 3.87, |
|
"learning_rate": 1.9439e-05, |
|
"loss": 3.495, |
|
"step": 41700 |
|
}, |
|
{ |
|
"epoch": 3.87, |
|
"learning_rate": 1.9405666666666666e-05, |
|
"loss": 3.5034, |
|
"step": 41800 |
|
}, |
|
{ |
|
"epoch": 3.88, |
|
"learning_rate": 1.9372333333333334e-05, |
|
"loss": 3.5135, |
|
"step": 41900 |
|
}, |
|
{ |
|
"epoch": 3.89, |
|
"learning_rate": 1.9339e-05, |
|
"loss": 3.5183, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 3.89, |
|
"eval_loss": 3.578335762023926, |
|
"eval_runtime": 23.7695, |
|
"eval_samples_per_second": 106.102, |
|
"eval_steps_per_second": 6.647, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 3.9, |
|
"learning_rate": 1.9305666666666667e-05, |
|
"loss": 3.4925, |
|
"step": 42100 |
|
}, |
|
{ |
|
"epoch": 3.91, |
|
"learning_rate": 1.9272333333333335e-05, |
|
"loss": 3.5166, |
|
"step": 42200 |
|
}, |
|
{ |
|
"epoch": 3.92, |
|
"learning_rate": 1.9239e-05, |
|
"loss": 3.4917, |
|
"step": 42300 |
|
}, |
|
{ |
|
"epoch": 3.93, |
|
"learning_rate": 1.9205666666666668e-05, |
|
"loss": 3.4986, |
|
"step": 42400 |
|
}, |
|
{ |
|
"epoch": 3.94, |
|
"learning_rate": 1.9172333333333333e-05, |
|
"loss": 3.512, |
|
"step": 42500 |
|
}, |
|
{ |
|
"epoch": 3.94, |
|
"eval_loss": 3.5784130096435547, |
|
"eval_runtime": 23.7738, |
|
"eval_samples_per_second": 106.083, |
|
"eval_steps_per_second": 6.646, |
|
"step": 42500 |
|
}, |
|
{ |
|
"epoch": 3.95, |
|
"learning_rate": 1.9139e-05, |
|
"loss": 3.5175, |
|
"step": 42600 |
|
}, |
|
{ |
|
"epoch": 3.96, |
|
"learning_rate": 1.9105666666666666e-05, |
|
"loss": 3.5299, |
|
"step": 42700 |
|
}, |
|
{ |
|
"epoch": 3.97, |
|
"learning_rate": 1.9072333333333334e-05, |
|
"loss": 3.4949, |
|
"step": 42800 |
|
}, |
|
{ |
|
"epoch": 3.98, |
|
"learning_rate": 1.9039000000000002e-05, |
|
"loss": 3.5017, |
|
"step": 42900 |
|
}, |
|
{ |
|
"epoch": 3.99, |
|
"learning_rate": 1.9005666666666667e-05, |
|
"loss": 3.5069, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 3.99, |
|
"eval_loss": 3.577517032623291, |
|
"eval_runtime": 23.8132, |
|
"eval_samples_per_second": 105.908, |
|
"eval_steps_per_second": 6.635, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 1.8972333333333335e-05, |
|
"loss": 3.5017, |
|
"step": 43100 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 1.8939e-05, |
|
"loss": 3.517, |
|
"step": 43200 |
|
}, |
|
{ |
|
"epoch": 4.01, |
|
"learning_rate": 1.8905666666666668e-05, |
|
"loss": 3.4586, |
|
"step": 43300 |
|
}, |
|
{ |
|
"epoch": 4.02, |
|
"learning_rate": 1.8872333333333332e-05, |
|
"loss": 3.4568, |
|
"step": 43400 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"learning_rate": 1.8839e-05, |
|
"loss": 3.5014, |
|
"step": 43500 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"eval_loss": 3.581881046295166, |
|
"eval_runtime": 23.7711, |
|
"eval_samples_per_second": 106.095, |
|
"eval_steps_per_second": 6.647, |
|
"step": 43500 |
|
}, |
|
{ |
|
"epoch": 4.04, |
|
"learning_rate": 1.880566666666667e-05, |
|
"loss": 3.4791, |
|
"step": 43600 |
|
}, |
|
{ |
|
"epoch": 4.05, |
|
"learning_rate": 1.8772333333333333e-05, |
|
"loss": 3.4744, |
|
"step": 43700 |
|
}, |
|
{ |
|
"epoch": 4.06, |
|
"learning_rate": 1.8739e-05, |
|
"loss": 3.4972, |
|
"step": 43800 |
|
}, |
|
{ |
|
"epoch": 4.07, |
|
"learning_rate": 1.8705666666666666e-05, |
|
"loss": 3.4811, |
|
"step": 43900 |
|
}, |
|
{ |
|
"epoch": 4.08, |
|
"learning_rate": 1.8672333333333334e-05, |
|
"loss": 3.4787, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 4.08, |
|
"eval_loss": 3.5835728645324707, |
|
"eval_runtime": 23.7828, |
|
"eval_samples_per_second": 106.043, |
|
"eval_steps_per_second": 6.643, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 4.09, |
|
"learning_rate": 1.8639e-05, |
|
"loss": 3.4686, |
|
"step": 44100 |
|
}, |
|
{ |
|
"epoch": 4.1, |
|
"learning_rate": 1.8605666666666667e-05, |
|
"loss": 3.4751, |
|
"step": 44200 |
|
}, |
|
{ |
|
"epoch": 4.11, |
|
"learning_rate": 1.8572333333333332e-05, |
|
"loss": 3.4829, |
|
"step": 44300 |
|
}, |
|
{ |
|
"epoch": 4.12, |
|
"learning_rate": 1.8539e-05, |
|
"loss": 3.4669, |
|
"step": 44400 |
|
}, |
|
{ |
|
"epoch": 4.12, |
|
"learning_rate": 1.8505666666666668e-05, |
|
"loss": 3.4625, |
|
"step": 44500 |
|
}, |
|
{ |
|
"epoch": 4.12, |
|
"eval_loss": 3.5787713527679443, |
|
"eval_runtime": 23.7907, |
|
"eval_samples_per_second": 106.008, |
|
"eval_steps_per_second": 6.641, |
|
"step": 44500 |
|
}, |
|
{ |
|
"epoch": 4.13, |
|
"learning_rate": 1.8472333333333333e-05, |
|
"loss": 3.4731, |
|
"step": 44600 |
|
}, |
|
{ |
|
"epoch": 4.14, |
|
"learning_rate": 1.8439e-05, |
|
"loss": 3.4799, |
|
"step": 44700 |
|
}, |
|
{ |
|
"epoch": 4.15, |
|
"learning_rate": 1.8405666666666666e-05, |
|
"loss": 3.5001, |
|
"step": 44800 |
|
}, |
|
{ |
|
"epoch": 4.16, |
|
"learning_rate": 1.8372333333333334e-05, |
|
"loss": 3.4744, |
|
"step": 44900 |
|
}, |
|
{ |
|
"epoch": 4.17, |
|
"learning_rate": 1.8339e-05, |
|
"loss": 3.4902, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 4.17, |
|
"eval_loss": 3.5783867835998535, |
|
"eval_runtime": 23.7793, |
|
"eval_samples_per_second": 106.059, |
|
"eval_steps_per_second": 6.644, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 4.18, |
|
"learning_rate": 1.8305666666666667e-05, |
|
"loss": 3.4946, |
|
"step": 45100 |
|
}, |
|
{ |
|
"epoch": 4.19, |
|
"learning_rate": 1.8272333333333335e-05, |
|
"loss": 3.4695, |
|
"step": 45200 |
|
}, |
|
{ |
|
"epoch": 4.2, |
|
"learning_rate": 1.8239e-05, |
|
"loss": 3.4579, |
|
"step": 45300 |
|
}, |
|
{ |
|
"epoch": 4.21, |
|
"learning_rate": 1.8205666666666667e-05, |
|
"loss": 3.4617, |
|
"step": 45400 |
|
}, |
|
{ |
|
"epoch": 4.22, |
|
"learning_rate": 1.8172333333333332e-05, |
|
"loss": 3.4927, |
|
"step": 45500 |
|
}, |
|
{ |
|
"epoch": 4.22, |
|
"eval_loss": 3.577256202697754, |
|
"eval_runtime": 23.8012, |
|
"eval_samples_per_second": 105.961, |
|
"eval_steps_per_second": 6.638, |
|
"step": 45500 |
|
}, |
|
{ |
|
"epoch": 4.23, |
|
"learning_rate": 1.8139e-05, |
|
"loss": 3.4659, |
|
"step": 45600 |
|
}, |
|
{ |
|
"epoch": 4.24, |
|
"learning_rate": 1.8105666666666665e-05, |
|
"loss": 3.4958, |
|
"step": 45700 |
|
}, |
|
{ |
|
"epoch": 4.25, |
|
"learning_rate": 1.8072333333333333e-05, |
|
"loss": 3.4759, |
|
"step": 45800 |
|
}, |
|
{ |
|
"epoch": 4.25, |
|
"learning_rate": 1.8038999999999998e-05, |
|
"loss": 3.4523, |
|
"step": 45900 |
|
}, |
|
{ |
|
"epoch": 4.26, |
|
"learning_rate": 1.8005666666666666e-05, |
|
"loss": 3.4813, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 4.26, |
|
"eval_loss": 3.576850652694702, |
|
"eval_runtime": 23.7844, |
|
"eval_samples_per_second": 106.036, |
|
"eval_steps_per_second": 6.643, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 4.27, |
|
"learning_rate": 1.7972333333333334e-05, |
|
"loss": 3.4841, |
|
"step": 46100 |
|
}, |
|
{ |
|
"epoch": 4.28, |
|
"learning_rate": 1.7939e-05, |
|
"loss": 3.472, |
|
"step": 46200 |
|
}, |
|
{ |
|
"epoch": 4.29, |
|
"learning_rate": 1.7905666666666667e-05, |
|
"loss": 3.4769, |
|
"step": 46300 |
|
}, |
|
{ |
|
"epoch": 4.3, |
|
"learning_rate": 1.787233333333333e-05, |
|
"loss": 3.4783, |
|
"step": 46400 |
|
}, |
|
{ |
|
"epoch": 4.31, |
|
"learning_rate": 1.7839e-05, |
|
"loss": 3.4637, |
|
"step": 46500 |
|
}, |
|
{ |
|
"epoch": 4.31, |
|
"eval_loss": 3.576143264770508, |
|
"eval_runtime": 23.8068, |
|
"eval_samples_per_second": 105.936, |
|
"eval_steps_per_second": 6.637, |
|
"step": 46500 |
|
}, |
|
{ |
|
"epoch": 4.32, |
|
"learning_rate": 1.7805666666666665e-05, |
|
"loss": 3.4812, |
|
"step": 46600 |
|
}, |
|
{ |
|
"epoch": 4.33, |
|
"learning_rate": 1.7772333333333333e-05, |
|
"loss": 3.476, |
|
"step": 46700 |
|
}, |
|
{ |
|
"epoch": 4.34, |
|
"learning_rate": 1.7739e-05, |
|
"loss": 3.4689, |
|
"step": 46800 |
|
}, |
|
{ |
|
"epoch": 4.35, |
|
"learning_rate": 1.7705666666666665e-05, |
|
"loss": 3.4719, |
|
"step": 46900 |
|
}, |
|
{ |
|
"epoch": 4.36, |
|
"learning_rate": 1.7672333333333334e-05, |
|
"loss": 3.4731, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 4.36, |
|
"eval_loss": 3.577054262161255, |
|
"eval_runtime": 23.719, |
|
"eval_samples_per_second": 106.328, |
|
"eval_steps_per_second": 6.661, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 4.37, |
|
"learning_rate": 1.7639e-05, |
|
"loss": 3.4923, |
|
"step": 47100 |
|
}, |
|
{ |
|
"epoch": 4.38, |
|
"learning_rate": 1.7605666666666666e-05, |
|
"loss": 3.4679, |
|
"step": 47200 |
|
}, |
|
{ |
|
"epoch": 4.38, |
|
"learning_rate": 1.757233333333333e-05, |
|
"loss": 3.4742, |
|
"step": 47300 |
|
}, |
|
{ |
|
"epoch": 4.39, |
|
"learning_rate": 1.7539e-05, |
|
"loss": 3.4628, |
|
"step": 47400 |
|
}, |
|
{ |
|
"epoch": 4.4, |
|
"learning_rate": 1.7505666666666667e-05, |
|
"loss": 3.4856, |
|
"step": 47500 |
|
}, |
|
{ |
|
"epoch": 4.4, |
|
"eval_loss": 3.578598976135254, |
|
"eval_runtime": 23.7952, |
|
"eval_samples_per_second": 105.988, |
|
"eval_steps_per_second": 6.64, |
|
"step": 47500 |
|
}, |
|
{ |
|
"epoch": 4.41, |
|
"learning_rate": 1.7472333333333332e-05, |
|
"loss": 3.488, |
|
"step": 47600 |
|
}, |
|
{ |
|
"epoch": 4.42, |
|
"learning_rate": 1.7439e-05, |
|
"loss": 3.4711, |
|
"step": 47700 |
|
}, |
|
{ |
|
"epoch": 4.43, |
|
"learning_rate": 1.7405666666666665e-05, |
|
"loss": 3.4814, |
|
"step": 47800 |
|
}, |
|
{ |
|
"epoch": 4.44, |
|
"learning_rate": 1.7372333333333333e-05, |
|
"loss": 3.4768, |
|
"step": 47900 |
|
}, |
|
{ |
|
"epoch": 4.45, |
|
"learning_rate": 1.7338999999999998e-05, |
|
"loss": 3.4579, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 4.45, |
|
"eval_loss": 3.5790109634399414, |
|
"eval_runtime": 23.779, |
|
"eval_samples_per_second": 106.06, |
|
"eval_steps_per_second": 6.645, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 4.46, |
|
"learning_rate": 1.7305666666666666e-05, |
|
"loss": 3.4752, |
|
"step": 48100 |
|
}, |
|
{ |
|
"epoch": 4.47, |
|
"learning_rate": 1.727233333333333e-05, |
|
"loss": 3.4836, |
|
"step": 48200 |
|
}, |
|
{ |
|
"epoch": 4.48, |
|
"learning_rate": 1.7239333333333333e-05, |
|
"loss": 3.4835, |
|
"step": 48300 |
|
}, |
|
{ |
|
"epoch": 4.49, |
|
"learning_rate": 1.7206e-05, |
|
"loss": 3.4798, |
|
"step": 48400 |
|
}, |
|
{ |
|
"epoch": 4.5, |
|
"learning_rate": 1.717266666666667e-05, |
|
"loss": 3.5032, |
|
"step": 48500 |
|
}, |
|
{ |
|
"epoch": 4.5, |
|
"eval_loss": 3.573821544647217, |
|
"eval_runtime": 23.7995, |
|
"eval_samples_per_second": 105.969, |
|
"eval_steps_per_second": 6.639, |
|
"step": 48500 |
|
}, |
|
{ |
|
"epoch": 4.5, |
|
"learning_rate": 1.7139333333333334e-05, |
|
"loss": 3.4885, |
|
"step": 48600 |
|
}, |
|
{ |
|
"epoch": 4.51, |
|
"learning_rate": 1.7106000000000002e-05, |
|
"loss": 3.4805, |
|
"step": 48700 |
|
}, |
|
{ |
|
"epoch": 4.52, |
|
"learning_rate": 1.7072666666666667e-05, |
|
"loss": 3.4588, |
|
"step": 48800 |
|
}, |
|
{ |
|
"epoch": 4.53, |
|
"learning_rate": 1.7039333333333335e-05, |
|
"loss": 3.4742, |
|
"step": 48900 |
|
}, |
|
{ |
|
"epoch": 4.54, |
|
"learning_rate": 1.7006e-05, |
|
"loss": 3.4826, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 4.54, |
|
"eval_loss": 3.574939012527466, |
|
"eval_runtime": 23.7807, |
|
"eval_samples_per_second": 106.052, |
|
"eval_steps_per_second": 6.644, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 4.55, |
|
"learning_rate": 1.6972666666666668e-05, |
|
"loss": 3.4866, |
|
"step": 49100 |
|
}, |
|
{ |
|
"epoch": 4.56, |
|
"learning_rate": 1.6939333333333332e-05, |
|
"loss": 3.4699, |
|
"step": 49200 |
|
}, |
|
{ |
|
"epoch": 4.57, |
|
"learning_rate": 1.6906e-05, |
|
"loss": 3.4643, |
|
"step": 49300 |
|
}, |
|
{ |
|
"epoch": 4.58, |
|
"learning_rate": 1.687266666666667e-05, |
|
"loss": 3.4771, |
|
"step": 49400 |
|
}, |
|
{ |
|
"epoch": 4.59, |
|
"learning_rate": 1.6839333333333333e-05, |
|
"loss": 3.4709, |
|
"step": 49500 |
|
}, |
|
{ |
|
"epoch": 4.59, |
|
"eval_loss": 3.574620246887207, |
|
"eval_runtime": 23.7928, |
|
"eval_samples_per_second": 105.999, |
|
"eval_steps_per_second": 6.641, |
|
"step": 49500 |
|
}, |
|
{ |
|
"epoch": 4.6, |
|
"learning_rate": 1.6806e-05, |
|
"loss": 3.4724, |
|
"step": 49600 |
|
}, |
|
{ |
|
"epoch": 4.61, |
|
"learning_rate": 1.6772666666666666e-05, |
|
"loss": 3.4675, |
|
"step": 49700 |
|
}, |
|
{ |
|
"epoch": 4.62, |
|
"learning_rate": 1.6739333333333334e-05, |
|
"loss": 3.4958, |
|
"step": 49800 |
|
}, |
|
{ |
|
"epoch": 4.63, |
|
"learning_rate": 1.6706e-05, |
|
"loss": 3.4738, |
|
"step": 49900 |
|
}, |
|
{ |
|
"epoch": 4.63, |
|
"learning_rate": 1.6672666666666667e-05, |
|
"loss": 3.4916, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 4.63, |
|
"eval_loss": 3.574481964111328, |
|
"eval_runtime": 23.7895, |
|
"eval_samples_per_second": 106.013, |
|
"eval_steps_per_second": 6.642, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 4.64, |
|
"learning_rate": 1.6639333333333335e-05, |
|
"loss": 3.4786, |
|
"step": 50100 |
|
}, |
|
{ |
|
"epoch": 4.65, |
|
"learning_rate": 1.6606e-05, |
|
"loss": 3.4727, |
|
"step": 50200 |
|
}, |
|
{ |
|
"epoch": 4.66, |
|
"learning_rate": 1.6572666666666668e-05, |
|
"loss": 3.4872, |
|
"step": 50300 |
|
}, |
|
{ |
|
"epoch": 4.67, |
|
"learning_rate": 1.6539333333333333e-05, |
|
"loss": 3.4945, |
|
"step": 50400 |
|
}, |
|
{ |
|
"epoch": 4.68, |
|
"learning_rate": 1.6506e-05, |
|
"loss": 3.4715, |
|
"step": 50500 |
|
}, |
|
{ |
|
"epoch": 4.68, |
|
"eval_loss": 3.5705904960632324, |
|
"eval_runtime": 24.2293, |
|
"eval_samples_per_second": 104.089, |
|
"eval_steps_per_second": 6.521, |
|
"step": 50500 |
|
}, |
|
{ |
|
"epoch": 4.69, |
|
"learning_rate": 1.6472666666666666e-05, |
|
"loss": 3.4569, |
|
"step": 50600 |
|
}, |
|
{ |
|
"epoch": 4.7, |
|
"learning_rate": 1.6439333333333334e-05, |
|
"loss": 3.4647, |
|
"step": 50700 |
|
}, |
|
{ |
|
"epoch": 4.71, |
|
"learning_rate": 1.6406333333333336e-05, |
|
"loss": 3.4686, |
|
"step": 50800 |
|
}, |
|
{ |
|
"epoch": 4.72, |
|
"learning_rate": 1.6373e-05, |
|
"loss": 3.4876, |
|
"step": 50900 |
|
}, |
|
{ |
|
"epoch": 4.73, |
|
"learning_rate": 1.633966666666667e-05, |
|
"loss": 3.4926, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 4.73, |
|
"eval_loss": 3.572871685028076, |
|
"eval_runtime": 23.7903, |
|
"eval_samples_per_second": 106.009, |
|
"eval_steps_per_second": 6.641, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 4.74, |
|
"learning_rate": 1.6306333333333337e-05, |
|
"loss": 3.4759, |
|
"step": 51100 |
|
}, |
|
{ |
|
"epoch": 4.75, |
|
"learning_rate": 1.6273e-05, |
|
"loss": 3.4418, |
|
"step": 51200 |
|
}, |
|
{ |
|
"epoch": 4.76, |
|
"learning_rate": 1.623966666666667e-05, |
|
"loss": 3.4926, |
|
"step": 51300 |
|
}, |
|
{ |
|
"epoch": 4.76, |
|
"learning_rate": 1.6206333333333334e-05, |
|
"loss": 3.4671, |
|
"step": 51400 |
|
}, |
|
{ |
|
"epoch": 4.77, |
|
"learning_rate": 1.6173000000000003e-05, |
|
"loss": 3.4974, |
|
"step": 51500 |
|
}, |
|
{ |
|
"epoch": 4.77, |
|
"eval_loss": 3.5724916458129883, |
|
"eval_runtime": 23.8031, |
|
"eval_samples_per_second": 105.952, |
|
"eval_steps_per_second": 6.638, |
|
"step": 51500 |
|
}, |
|
{ |
|
"epoch": 4.78, |
|
"learning_rate": 1.6139666666666667e-05, |
|
"loss": 3.4833, |
|
"step": 51600 |
|
}, |
|
{ |
|
"epoch": 4.79, |
|
"learning_rate": 1.6106333333333335e-05, |
|
"loss": 3.4603, |
|
"step": 51700 |
|
}, |
|
{ |
|
"epoch": 4.8, |
|
"learning_rate": 1.6073e-05, |
|
"loss": 3.4809, |
|
"step": 51800 |
|
}, |
|
{ |
|
"epoch": 4.81, |
|
"learning_rate": 1.6039666666666668e-05, |
|
"loss": 3.4697, |
|
"step": 51900 |
|
}, |
|
{ |
|
"epoch": 4.82, |
|
"learning_rate": 1.6006333333333336e-05, |
|
"loss": 3.4796, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 4.82, |
|
"eval_loss": 3.568263292312622, |
|
"eval_runtime": 23.7971, |
|
"eval_samples_per_second": 105.979, |
|
"eval_steps_per_second": 6.639, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 4.83, |
|
"learning_rate": 1.5973e-05, |
|
"loss": 3.4968, |
|
"step": 52100 |
|
}, |
|
{ |
|
"epoch": 4.84, |
|
"learning_rate": 1.593966666666667e-05, |
|
"loss": 3.469, |
|
"step": 52200 |
|
}, |
|
{ |
|
"epoch": 4.85, |
|
"learning_rate": 1.5906333333333334e-05, |
|
"loss": 3.4832, |
|
"step": 52300 |
|
}, |
|
{ |
|
"epoch": 4.86, |
|
"learning_rate": 1.5873000000000002e-05, |
|
"loss": 3.4819, |
|
"step": 52400 |
|
}, |
|
{ |
|
"epoch": 4.87, |
|
"learning_rate": 1.5839666666666667e-05, |
|
"loss": 3.4817, |
|
"step": 52500 |
|
}, |
|
{ |
|
"epoch": 4.87, |
|
"eval_loss": 3.5706946849823, |
|
"eval_runtime": 23.8071, |
|
"eval_samples_per_second": 105.935, |
|
"eval_steps_per_second": 6.637, |
|
"step": 52500 |
|
}, |
|
{ |
|
"epoch": 4.88, |
|
"learning_rate": 1.5806333333333335e-05, |
|
"loss": 3.4747, |
|
"step": 52600 |
|
}, |
|
{ |
|
"epoch": 4.89, |
|
"learning_rate": 1.5773000000000003e-05, |
|
"loss": 3.4643, |
|
"step": 52700 |
|
}, |
|
{ |
|
"epoch": 4.89, |
|
"learning_rate": 1.5739666666666668e-05, |
|
"loss": 3.4446, |
|
"step": 52800 |
|
}, |
|
{ |
|
"epoch": 4.9, |
|
"learning_rate": 1.5706333333333336e-05, |
|
"loss": 3.4721, |
|
"step": 52900 |
|
}, |
|
{ |
|
"epoch": 4.91, |
|
"learning_rate": 1.5673e-05, |
|
"loss": 3.4683, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 4.91, |
|
"eval_loss": 3.5720579624176025, |
|
"eval_runtime": 23.787, |
|
"eval_samples_per_second": 106.024, |
|
"eval_steps_per_second": 6.642, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 4.92, |
|
"learning_rate": 1.563966666666667e-05, |
|
"loss": 3.4983, |
|
"step": 53100 |
|
}, |
|
{ |
|
"epoch": 4.93, |
|
"learning_rate": 1.5606333333333333e-05, |
|
"loss": 3.4543, |
|
"step": 53200 |
|
}, |
|
{ |
|
"epoch": 4.94, |
|
"learning_rate": 1.5573e-05, |
|
"loss": 3.4886, |
|
"step": 53300 |
|
}, |
|
{ |
|
"epoch": 4.95, |
|
"learning_rate": 1.553966666666667e-05, |
|
"loss": 3.4598, |
|
"step": 53400 |
|
}, |
|
{ |
|
"epoch": 4.96, |
|
"learning_rate": 1.5506333333333334e-05, |
|
"loss": 3.4986, |
|
"step": 53500 |
|
}, |
|
{ |
|
"epoch": 4.96, |
|
"eval_loss": 3.5689127445220947, |
|
"eval_runtime": 23.9712, |
|
"eval_samples_per_second": 105.21, |
|
"eval_steps_per_second": 6.591, |
|
"step": 53500 |
|
}, |
|
{ |
|
"epoch": 4.97, |
|
"learning_rate": 1.5473000000000002e-05, |
|
"loss": 3.4927, |
|
"step": 53600 |
|
}, |
|
{ |
|
"epoch": 4.98, |
|
"learning_rate": 1.5439666666666667e-05, |
|
"loss": 3.4767, |
|
"step": 53700 |
|
}, |
|
{ |
|
"epoch": 4.99, |
|
"learning_rate": 1.5406333333333335e-05, |
|
"loss": 3.4679, |
|
"step": 53800 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"learning_rate": 1.5373333333333334e-05, |
|
"loss": 3.4892, |
|
"step": 53900 |
|
}, |
|
{ |
|
"epoch": 5.01, |
|
"learning_rate": 1.534e-05, |
|
"loss": 3.4763, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 5.01, |
|
"eval_loss": 3.571553945541382, |
|
"eval_runtime": 23.7751, |
|
"eval_samples_per_second": 106.077, |
|
"eval_steps_per_second": 6.646, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 5.01, |
|
"learning_rate": 1.5306666666666667e-05, |
|
"loss": 3.448, |
|
"step": 54100 |
|
}, |
|
{ |
|
"epoch": 5.02, |
|
"learning_rate": 1.527333333333333e-05, |
|
"loss": 3.4476, |
|
"step": 54200 |
|
}, |
|
{ |
|
"epoch": 5.03, |
|
"learning_rate": 1.524e-05, |
|
"loss": 3.452, |
|
"step": 54300 |
|
}, |
|
{ |
|
"epoch": 5.04, |
|
"learning_rate": 1.5206666666666668e-05, |
|
"loss": 3.4499, |
|
"step": 54400 |
|
}, |
|
{ |
|
"epoch": 5.05, |
|
"learning_rate": 1.5173333333333334e-05, |
|
"loss": 3.4668, |
|
"step": 54500 |
|
}, |
|
{ |
|
"epoch": 5.05, |
|
"eval_loss": 3.5700042247772217, |
|
"eval_runtime": 23.7777, |
|
"eval_samples_per_second": 106.066, |
|
"eval_steps_per_second": 6.645, |
|
"step": 54500 |
|
}, |
|
{ |
|
"epoch": 5.06, |
|
"learning_rate": 1.5140000000000002e-05, |
|
"loss": 3.446, |
|
"step": 54600 |
|
}, |
|
{ |
|
"epoch": 5.07, |
|
"learning_rate": 1.5106666666666667e-05, |
|
"loss": 3.449, |
|
"step": 54700 |
|
}, |
|
{ |
|
"epoch": 5.08, |
|
"learning_rate": 1.5073333333333335e-05, |
|
"loss": 3.4855, |
|
"step": 54800 |
|
}, |
|
{ |
|
"epoch": 5.09, |
|
"learning_rate": 1.504e-05, |
|
"loss": 3.4352, |
|
"step": 54900 |
|
}, |
|
{ |
|
"epoch": 5.1, |
|
"learning_rate": 1.5006666666666668e-05, |
|
"loss": 3.4274, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 5.1, |
|
"eval_loss": 3.5723605155944824, |
|
"eval_runtime": 23.7887, |
|
"eval_samples_per_second": 106.017, |
|
"eval_steps_per_second": 6.642, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 5.11, |
|
"learning_rate": 1.4973333333333335e-05, |
|
"loss": 3.4536, |
|
"step": 55100 |
|
}, |
|
{ |
|
"epoch": 5.12, |
|
"learning_rate": 1.4940000000000001e-05, |
|
"loss": 3.4443, |
|
"step": 55200 |
|
}, |
|
{ |
|
"epoch": 5.13, |
|
"learning_rate": 1.4906666666666667e-05, |
|
"loss": 3.4531, |
|
"step": 55300 |
|
}, |
|
{ |
|
"epoch": 5.14, |
|
"learning_rate": 1.4873333333333334e-05, |
|
"loss": 3.4414, |
|
"step": 55400 |
|
}, |
|
{ |
|
"epoch": 5.14, |
|
"learning_rate": 1.484e-05, |
|
"loss": 3.4499, |
|
"step": 55500 |
|
}, |
|
{ |
|
"epoch": 5.14, |
|
"eval_loss": 3.571748971939087, |
|
"eval_runtime": 23.7939, |
|
"eval_samples_per_second": 105.994, |
|
"eval_steps_per_second": 6.64, |
|
"step": 55500 |
|
}, |
|
{ |
|
"epoch": 5.15, |
|
"learning_rate": 1.4806666666666668e-05, |
|
"loss": 3.4533, |
|
"step": 55600 |
|
}, |
|
{ |
|
"epoch": 5.16, |
|
"learning_rate": 1.4773333333333335e-05, |
|
"loss": 3.4528, |
|
"step": 55700 |
|
}, |
|
{ |
|
"epoch": 5.17, |
|
"learning_rate": 1.4740000000000001e-05, |
|
"loss": 3.4617, |
|
"step": 55800 |
|
}, |
|
{ |
|
"epoch": 5.18, |
|
"learning_rate": 1.4706666666666668e-05, |
|
"loss": 3.454, |
|
"step": 55900 |
|
}, |
|
{ |
|
"epoch": 5.19, |
|
"learning_rate": 1.4673333333333334e-05, |
|
"loss": 3.4507, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 5.19, |
|
"eval_loss": 3.5706114768981934, |
|
"eval_runtime": 23.7225, |
|
"eval_samples_per_second": 106.313, |
|
"eval_steps_per_second": 6.66, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 5.2, |
|
"learning_rate": 1.4640333333333335e-05, |
|
"loss": 3.4436, |
|
"step": 56100 |
|
}, |
|
{ |
|
"epoch": 5.21, |
|
"learning_rate": 1.4607000000000001e-05, |
|
"loss": 3.4584, |
|
"step": 56200 |
|
}, |
|
{ |
|
"epoch": 5.22, |
|
"learning_rate": 1.4573666666666667e-05, |
|
"loss": 3.4517, |
|
"step": 56300 |
|
}, |
|
{ |
|
"epoch": 5.23, |
|
"learning_rate": 1.4540333333333334e-05, |
|
"loss": 3.4581, |
|
"step": 56400 |
|
}, |
|
{ |
|
"epoch": 5.24, |
|
"learning_rate": 1.4507e-05, |
|
"loss": 3.4343, |
|
"step": 56500 |
|
}, |
|
{ |
|
"epoch": 5.24, |
|
"eval_loss": 3.5696890354156494, |
|
"eval_runtime": 23.8115, |
|
"eval_samples_per_second": 105.915, |
|
"eval_steps_per_second": 6.635, |
|
"step": 56500 |
|
}, |
|
{ |
|
"epoch": 5.25, |
|
"learning_rate": 1.4473666666666668e-05, |
|
"loss": 3.4306, |
|
"step": 56600 |
|
}, |
|
{ |
|
"epoch": 5.26, |
|
"learning_rate": 1.4440333333333335e-05, |
|
"loss": 3.4402, |
|
"step": 56700 |
|
}, |
|
{ |
|
"epoch": 5.27, |
|
"learning_rate": 1.4407000000000001e-05, |
|
"loss": 3.453, |
|
"step": 56800 |
|
}, |
|
{ |
|
"epoch": 5.27, |
|
"learning_rate": 1.4373666666666668e-05, |
|
"loss": 3.434, |
|
"step": 56900 |
|
}, |
|
{ |
|
"epoch": 5.28, |
|
"learning_rate": 1.4340333333333334e-05, |
|
"loss": 3.4151, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 5.28, |
|
"eval_loss": 3.5709781646728516, |
|
"eval_runtime": 23.7861, |
|
"eval_samples_per_second": 106.028, |
|
"eval_steps_per_second": 6.643, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 5.29, |
|
"learning_rate": 1.4307e-05, |
|
"loss": 3.4446, |
|
"step": 57100 |
|
}, |
|
{ |
|
"epoch": 5.3, |
|
"learning_rate": 1.4273666666666667e-05, |
|
"loss": 3.4401, |
|
"step": 57200 |
|
}, |
|
{ |
|
"epoch": 5.31, |
|
"learning_rate": 1.4240333333333333e-05, |
|
"loss": 3.4597, |
|
"step": 57300 |
|
}, |
|
{ |
|
"epoch": 5.32, |
|
"learning_rate": 1.4207000000000001e-05, |
|
"loss": 3.4369, |
|
"step": 57400 |
|
}, |
|
{ |
|
"epoch": 5.33, |
|
"learning_rate": 1.4173666666666668e-05, |
|
"loss": 3.4469, |
|
"step": 57500 |
|
}, |
|
{ |
|
"epoch": 5.33, |
|
"eval_loss": 3.571150779724121, |
|
"eval_runtime": 23.8246, |
|
"eval_samples_per_second": 105.857, |
|
"eval_steps_per_second": 6.632, |
|
"step": 57500 |
|
}, |
|
{ |
|
"epoch": 5.34, |
|
"learning_rate": 1.4140333333333334e-05, |
|
"loss": 3.4317, |
|
"step": 57600 |
|
}, |
|
{ |
|
"epoch": 5.35, |
|
"learning_rate": 1.4107e-05, |
|
"loss": 3.4437, |
|
"step": 57700 |
|
}, |
|
{ |
|
"epoch": 5.36, |
|
"learning_rate": 1.4073666666666667e-05, |
|
"loss": 3.4488, |
|
"step": 57800 |
|
}, |
|
{ |
|
"epoch": 5.37, |
|
"learning_rate": 1.4040333333333333e-05, |
|
"loss": 3.4404, |
|
"step": 57900 |
|
}, |
|
{ |
|
"epoch": 5.38, |
|
"learning_rate": 1.4007e-05, |
|
"loss": 3.458, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 5.38, |
|
"eval_loss": 3.5692391395568848, |
|
"eval_runtime": 23.7837, |
|
"eval_samples_per_second": 106.039, |
|
"eval_steps_per_second": 6.643, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 5.39, |
|
"learning_rate": 1.3973666666666666e-05, |
|
"loss": 3.4656, |
|
"step": 58100 |
|
}, |
|
{ |
|
"epoch": 5.39, |
|
"learning_rate": 1.3940333333333334e-05, |
|
"loss": 3.4639, |
|
"step": 58200 |
|
}, |
|
{ |
|
"epoch": 5.4, |
|
"learning_rate": 1.3907000000000001e-05, |
|
"loss": 3.4502, |
|
"step": 58300 |
|
}, |
|
{ |
|
"epoch": 5.41, |
|
"learning_rate": 1.3873666666666667e-05, |
|
"loss": 3.4752, |
|
"step": 58400 |
|
}, |
|
{ |
|
"epoch": 5.42, |
|
"learning_rate": 1.3840333333333334e-05, |
|
"loss": 3.4559, |
|
"step": 58500 |
|
}, |
|
{ |
|
"epoch": 5.42, |
|
"eval_loss": 3.567958116531372, |
|
"eval_runtime": 23.7984, |
|
"eval_samples_per_second": 105.974, |
|
"eval_steps_per_second": 6.639, |
|
"step": 58500 |
|
}, |
|
{ |
|
"epoch": 5.43, |
|
"learning_rate": 1.3807e-05, |
|
"loss": 3.4518, |
|
"step": 58600 |
|
}, |
|
{ |
|
"epoch": 5.44, |
|
"learning_rate": 1.3774e-05, |
|
"loss": 3.418, |
|
"step": 58700 |
|
}, |
|
{ |
|
"epoch": 5.45, |
|
"learning_rate": 1.3740666666666667e-05, |
|
"loss": 3.438, |
|
"step": 58800 |
|
}, |
|
{ |
|
"epoch": 5.46, |
|
"learning_rate": 1.3707333333333333e-05, |
|
"loss": 3.4315, |
|
"step": 58900 |
|
}, |
|
{ |
|
"epoch": 5.47, |
|
"learning_rate": 1.3674e-05, |
|
"loss": 3.4354, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 5.47, |
|
"eval_loss": 3.56830096244812, |
|
"eval_runtime": 23.7688, |
|
"eval_samples_per_second": 106.106, |
|
"eval_steps_per_second": 6.647, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 5.48, |
|
"learning_rate": 1.3640666666666666e-05, |
|
"loss": 3.4574, |
|
"step": 59100 |
|
}, |
|
{ |
|
"epoch": 5.49, |
|
"learning_rate": 1.3607333333333334e-05, |
|
"loss": 3.4327, |
|
"step": 59200 |
|
}, |
|
{ |
|
"epoch": 5.5, |
|
"learning_rate": 1.3574e-05, |
|
"loss": 3.4542, |
|
"step": 59300 |
|
}, |
|
{ |
|
"epoch": 5.51, |
|
"learning_rate": 1.3540666666666667e-05, |
|
"loss": 3.4424, |
|
"step": 59400 |
|
}, |
|
{ |
|
"epoch": 5.52, |
|
"learning_rate": 1.3507333333333334e-05, |
|
"loss": 3.4479, |
|
"step": 59500 |
|
}, |
|
{ |
|
"epoch": 5.52, |
|
"eval_loss": 3.570251703262329, |
|
"eval_runtime": 23.7862, |
|
"eval_samples_per_second": 106.028, |
|
"eval_steps_per_second": 6.643, |
|
"step": 59500 |
|
}, |
|
{ |
|
"epoch": 5.52, |
|
"learning_rate": 1.3474e-05, |
|
"loss": 3.4637, |
|
"step": 59600 |
|
}, |
|
{ |
|
"epoch": 5.53, |
|
"learning_rate": 1.3440666666666667e-05, |
|
"loss": 3.4584, |
|
"step": 59700 |
|
}, |
|
{ |
|
"epoch": 5.54, |
|
"learning_rate": 1.3407333333333333e-05, |
|
"loss": 3.4347, |
|
"step": 59800 |
|
}, |
|
{ |
|
"epoch": 5.55, |
|
"learning_rate": 1.3374e-05, |
|
"loss": 3.4526, |
|
"step": 59900 |
|
}, |
|
{ |
|
"epoch": 5.56, |
|
"learning_rate": 1.3340666666666667e-05, |
|
"loss": 3.4627, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 5.56, |
|
"eval_loss": 3.5677947998046875, |
|
"eval_runtime": 23.7816, |
|
"eval_samples_per_second": 106.049, |
|
"eval_steps_per_second": 6.644, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 5.57, |
|
"learning_rate": 1.3307333333333334e-05, |
|
"loss": 3.4423, |
|
"step": 60100 |
|
}, |
|
{ |
|
"epoch": 5.58, |
|
"learning_rate": 1.3274e-05, |
|
"loss": 3.4469, |
|
"step": 60200 |
|
}, |
|
{ |
|
"epoch": 5.59, |
|
"learning_rate": 1.3240666666666667e-05, |
|
"loss": 3.4423, |
|
"step": 60300 |
|
}, |
|
{ |
|
"epoch": 5.6, |
|
"learning_rate": 1.3207333333333333e-05, |
|
"loss": 3.4322, |
|
"step": 60400 |
|
}, |
|
{ |
|
"epoch": 5.61, |
|
"learning_rate": 1.3174e-05, |
|
"loss": 3.4478, |
|
"step": 60500 |
|
}, |
|
{ |
|
"epoch": 5.61, |
|
"eval_loss": 3.565863847732544, |
|
"eval_runtime": 23.8989, |
|
"eval_samples_per_second": 105.528, |
|
"eval_steps_per_second": 6.611, |
|
"step": 60500 |
|
}, |
|
{ |
|
"epoch": 5.62, |
|
"learning_rate": 1.3140666666666666e-05, |
|
"loss": 3.4294, |
|
"step": 60600 |
|
}, |
|
{ |
|
"epoch": 5.63, |
|
"learning_rate": 1.3107333333333332e-05, |
|
"loss": 3.4547, |
|
"step": 60700 |
|
}, |
|
{ |
|
"epoch": 5.64, |
|
"learning_rate": 1.3074e-05, |
|
"loss": 3.4605, |
|
"step": 60800 |
|
}, |
|
{ |
|
"epoch": 5.65, |
|
"learning_rate": 1.3040666666666667e-05, |
|
"loss": 3.4517, |
|
"step": 60900 |
|
}, |
|
{ |
|
"epoch": 5.65, |
|
"learning_rate": 1.3007333333333333e-05, |
|
"loss": 3.4645, |
|
"step": 61000 |
|
}, |
|
{ |
|
"epoch": 5.65, |
|
"eval_loss": 3.567469596862793, |
|
"eval_runtime": 23.816, |
|
"eval_samples_per_second": 105.895, |
|
"eval_steps_per_second": 6.634, |
|
"step": 61000 |
|
}, |
|
{ |
|
"epoch": 5.66, |
|
"learning_rate": 1.2974e-05, |
|
"loss": 3.4338, |
|
"step": 61100 |
|
}, |
|
{ |
|
"epoch": 5.67, |
|
"learning_rate": 1.2940666666666666e-05, |
|
"loss": 3.4675, |
|
"step": 61200 |
|
}, |
|
{ |
|
"epoch": 5.68, |
|
"learning_rate": 1.2907333333333333e-05, |
|
"loss": 3.4542, |
|
"step": 61300 |
|
}, |
|
{ |
|
"epoch": 5.69, |
|
"learning_rate": 1.2873999999999999e-05, |
|
"loss": 3.46, |
|
"step": 61400 |
|
}, |
|
{ |
|
"epoch": 5.7, |
|
"learning_rate": 1.2840666666666667e-05, |
|
"loss": 3.4658, |
|
"step": 61500 |
|
}, |
|
{ |
|
"epoch": 5.7, |
|
"eval_loss": 3.5665736198425293, |
|
"eval_runtime": 23.7752, |
|
"eval_samples_per_second": 106.077, |
|
"eval_steps_per_second": 6.646, |
|
"step": 61500 |
|
}, |
|
{ |
|
"epoch": 5.71, |
|
"learning_rate": 1.2807333333333334e-05, |
|
"loss": 3.4398, |
|
"step": 61600 |
|
}, |
|
{ |
|
"epoch": 5.72, |
|
"learning_rate": 1.2774e-05, |
|
"loss": 3.4504, |
|
"step": 61700 |
|
}, |
|
{ |
|
"epoch": 5.73, |
|
"learning_rate": 1.2740666666666666e-05, |
|
"loss": 3.4197, |
|
"step": 61800 |
|
}, |
|
{ |
|
"epoch": 5.74, |
|
"learning_rate": 1.2707333333333333e-05, |
|
"loss": 3.4719, |
|
"step": 61900 |
|
}, |
|
{ |
|
"epoch": 5.75, |
|
"learning_rate": 1.2674e-05, |
|
"loss": 3.4657, |
|
"step": 62000 |
|
}, |
|
{ |
|
"epoch": 5.75, |
|
"eval_loss": 3.5658366680145264, |
|
"eval_runtime": 23.7952, |
|
"eval_samples_per_second": 105.988, |
|
"eval_steps_per_second": 6.64, |
|
"step": 62000 |
|
}, |
|
{ |
|
"epoch": 5.76, |
|
"learning_rate": 1.2641e-05, |
|
"loss": 3.4558, |
|
"step": 62100 |
|
}, |
|
{ |
|
"epoch": 5.77, |
|
"learning_rate": 1.2607666666666666e-05, |
|
"loss": 3.4448, |
|
"step": 62200 |
|
}, |
|
{ |
|
"epoch": 5.77, |
|
"learning_rate": 1.2574333333333333e-05, |
|
"loss": 3.4367, |
|
"step": 62300 |
|
}, |
|
{ |
|
"epoch": 5.78, |
|
"learning_rate": 1.2540999999999999e-05, |
|
"loss": 3.4363, |
|
"step": 62400 |
|
}, |
|
{ |
|
"epoch": 5.79, |
|
"learning_rate": 1.2507666666666667e-05, |
|
"loss": 3.4618, |
|
"step": 62500 |
|
}, |
|
{ |
|
"epoch": 5.79, |
|
"eval_loss": 3.565267324447632, |
|
"eval_runtime": 23.7952, |
|
"eval_samples_per_second": 105.988, |
|
"eval_steps_per_second": 6.64, |
|
"step": 62500 |
|
}, |
|
{ |
|
"epoch": 5.8, |
|
"learning_rate": 1.2474666666666666e-05, |
|
"loss": 3.4519, |
|
"step": 62600 |
|
}, |
|
{ |
|
"epoch": 5.81, |
|
"learning_rate": 1.2441333333333332e-05, |
|
"loss": 3.4173, |
|
"step": 62700 |
|
}, |
|
{ |
|
"epoch": 5.82, |
|
"learning_rate": 1.2408e-05, |
|
"loss": 3.4429, |
|
"step": 62800 |
|
}, |
|
{ |
|
"epoch": 5.83, |
|
"learning_rate": 1.2374666666666667e-05, |
|
"loss": 3.4334, |
|
"step": 62900 |
|
}, |
|
{ |
|
"epoch": 5.84, |
|
"learning_rate": 1.2341333333333333e-05, |
|
"loss": 3.4541, |
|
"step": 63000 |
|
}, |
|
{ |
|
"epoch": 5.84, |
|
"eval_loss": 3.565286874771118, |
|
"eval_runtime": 23.7849, |
|
"eval_samples_per_second": 106.034, |
|
"eval_steps_per_second": 6.643, |
|
"step": 63000 |
|
}, |
|
{ |
|
"epoch": 5.85, |
|
"learning_rate": 1.2308e-05, |
|
"loss": 3.4434, |
|
"step": 63100 |
|
}, |
|
{ |
|
"epoch": 5.86, |
|
"learning_rate": 1.2274666666666666e-05, |
|
"loss": 3.4478, |
|
"step": 63200 |
|
}, |
|
{ |
|
"epoch": 5.87, |
|
"learning_rate": 1.2241333333333333e-05, |
|
"loss": 3.4517, |
|
"step": 63300 |
|
}, |
|
{ |
|
"epoch": 5.88, |
|
"learning_rate": 1.2207999999999999e-05, |
|
"loss": 3.462, |
|
"step": 63400 |
|
}, |
|
{ |
|
"epoch": 5.89, |
|
"learning_rate": 1.2174666666666665e-05, |
|
"loss": 3.4552, |
|
"step": 63500 |
|
}, |
|
{ |
|
"epoch": 5.89, |
|
"eval_loss": 3.5648128986358643, |
|
"eval_runtime": 23.8, |
|
"eval_samples_per_second": 105.966, |
|
"eval_steps_per_second": 6.639, |
|
"step": 63500 |
|
}, |
|
{ |
|
"epoch": 5.9, |
|
"learning_rate": 1.2141333333333334e-05, |
|
"loss": 3.4486, |
|
"step": 63600 |
|
}, |
|
{ |
|
"epoch": 5.9, |
|
"learning_rate": 1.2108e-05, |
|
"loss": 3.4296, |
|
"step": 63700 |
|
}, |
|
{ |
|
"epoch": 5.91, |
|
"learning_rate": 1.2074666666666666e-05, |
|
"loss": 3.4678, |
|
"step": 63800 |
|
}, |
|
{ |
|
"epoch": 5.92, |
|
"learning_rate": 1.2041333333333334e-05, |
|
"loss": 3.4566, |
|
"step": 63900 |
|
}, |
|
{ |
|
"epoch": 5.93, |
|
"learning_rate": 1.2008000000000001e-05, |
|
"loss": 3.4679, |
|
"step": 64000 |
|
}, |
|
{ |
|
"epoch": 5.93, |
|
"eval_loss": 3.5647895336151123, |
|
"eval_runtime": 23.7762, |
|
"eval_samples_per_second": 106.073, |
|
"eval_steps_per_second": 6.645, |
|
"step": 64000 |
|
}, |
|
{ |
|
"epoch": 5.94, |
|
"learning_rate": 1.1974666666666667e-05, |
|
"loss": 3.4522, |
|
"step": 64100 |
|
}, |
|
{ |
|
"epoch": 5.95, |
|
"learning_rate": 1.1941333333333334e-05, |
|
"loss": 3.4432, |
|
"step": 64200 |
|
}, |
|
{ |
|
"epoch": 5.96, |
|
"learning_rate": 1.1908000000000002e-05, |
|
"loss": 3.4428, |
|
"step": 64300 |
|
}, |
|
{ |
|
"epoch": 5.97, |
|
"learning_rate": 1.1874666666666668e-05, |
|
"loss": 3.4462, |
|
"step": 64400 |
|
}, |
|
{ |
|
"epoch": 5.98, |
|
"learning_rate": 1.1841333333333335e-05, |
|
"loss": 3.4423, |
|
"step": 64500 |
|
}, |
|
{ |
|
"epoch": 5.98, |
|
"eval_loss": 3.5651543140411377, |
|
"eval_runtime": 23.7835, |
|
"eval_samples_per_second": 106.04, |
|
"eval_steps_per_second": 6.643, |
|
"step": 64500 |
|
}, |
|
{ |
|
"epoch": 5.99, |
|
"learning_rate": 1.1808000000000001e-05, |
|
"loss": 3.4277, |
|
"step": 64600 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"learning_rate": 1.1774666666666668e-05, |
|
"loss": 3.4397, |
|
"step": 64700 |
|
}, |
|
{ |
|
"epoch": 6.01, |
|
"learning_rate": 1.1741333333333334e-05, |
|
"loss": 3.4286, |
|
"step": 64800 |
|
}, |
|
{ |
|
"epoch": 6.02, |
|
"learning_rate": 1.1708e-05, |
|
"loss": 3.4134, |
|
"step": 64900 |
|
}, |
|
{ |
|
"epoch": 6.03, |
|
"learning_rate": 1.1674666666666667e-05, |
|
"loss": 3.3893, |
|
"step": 65000 |
|
}, |
|
{ |
|
"epoch": 6.03, |
|
"eval_loss": 3.564636707305908, |
|
"eval_runtime": 23.8888, |
|
"eval_samples_per_second": 105.572, |
|
"eval_steps_per_second": 6.614, |
|
"step": 65000 |
|
}, |
|
{ |
|
"epoch": 6.03, |
|
"learning_rate": 1.1641333333333335e-05, |
|
"loss": 3.4141, |
|
"step": 65100 |
|
}, |
|
{ |
|
"epoch": 6.04, |
|
"learning_rate": 1.1608000000000001e-05, |
|
"loss": 3.4166, |
|
"step": 65200 |
|
}, |
|
{ |
|
"epoch": 6.05, |
|
"learning_rate": 1.1574666666666668e-05, |
|
"loss": 3.4112, |
|
"step": 65300 |
|
}, |
|
{ |
|
"epoch": 6.06, |
|
"learning_rate": 1.1541333333333334e-05, |
|
"loss": 3.4282, |
|
"step": 65400 |
|
}, |
|
{ |
|
"epoch": 6.07, |
|
"learning_rate": 1.1508e-05, |
|
"loss": 3.4239, |
|
"step": 65500 |
|
}, |
|
{ |
|
"epoch": 6.07, |
|
"eval_loss": 3.566786527633667, |
|
"eval_runtime": 23.7837, |
|
"eval_samples_per_second": 106.039, |
|
"eval_steps_per_second": 6.643, |
|
"step": 65500 |
|
}, |
|
{ |
|
"epoch": 6.08, |
|
"learning_rate": 1.1474666666666667e-05, |
|
"loss": 3.4181, |
|
"step": 65600 |
|
}, |
|
{ |
|
"epoch": 6.09, |
|
"learning_rate": 1.1441333333333333e-05, |
|
"loss": 3.4323, |
|
"step": 65700 |
|
}, |
|
{ |
|
"epoch": 6.1, |
|
"learning_rate": 1.1408e-05, |
|
"loss": 3.4269, |
|
"step": 65800 |
|
}, |
|
{ |
|
"epoch": 6.11, |
|
"learning_rate": 1.1374666666666668e-05, |
|
"loss": 3.4389, |
|
"step": 65900 |
|
}, |
|
{ |
|
"epoch": 6.12, |
|
"learning_rate": 1.1341333333333334e-05, |
|
"loss": 3.4329, |
|
"step": 66000 |
|
}, |
|
{ |
|
"epoch": 6.12, |
|
"eval_loss": 3.563938856124878, |
|
"eval_runtime": 23.781, |
|
"eval_samples_per_second": 106.051, |
|
"eval_steps_per_second": 6.644, |
|
"step": 66000 |
|
}, |
|
{ |
|
"epoch": 6.13, |
|
"learning_rate": 1.1308e-05, |
|
"loss": 3.4201, |
|
"step": 66100 |
|
}, |
|
{ |
|
"epoch": 6.14, |
|
"learning_rate": 1.1274666666666667e-05, |
|
"loss": 3.4139, |
|
"step": 66200 |
|
}, |
|
{ |
|
"epoch": 6.15, |
|
"learning_rate": 1.1241333333333334e-05, |
|
"loss": 3.4178, |
|
"step": 66300 |
|
}, |
|
{ |
|
"epoch": 6.15, |
|
"learning_rate": 1.1208333333333334e-05, |
|
"loss": 3.4203, |
|
"step": 66400 |
|
}, |
|
{ |
|
"epoch": 6.16, |
|
"learning_rate": 1.1175e-05, |
|
"loss": 3.4151, |
|
"step": 66500 |
|
}, |
|
{ |
|
"epoch": 6.16, |
|
"eval_loss": 3.564937114715576, |
|
"eval_runtime": 23.7834, |
|
"eval_samples_per_second": 106.04, |
|
"eval_steps_per_second": 6.643, |
|
"step": 66500 |
|
}, |
|
{ |
|
"epoch": 6.17, |
|
"learning_rate": 1.1141666666666667e-05, |
|
"loss": 3.4345, |
|
"step": 66600 |
|
}, |
|
{ |
|
"epoch": 6.18, |
|
"learning_rate": 1.1108333333333333e-05, |
|
"loss": 3.4681, |
|
"step": 66700 |
|
}, |
|
{ |
|
"epoch": 6.19, |
|
"learning_rate": 1.1075e-05, |
|
"loss": 3.4163, |
|
"step": 66800 |
|
}, |
|
{ |
|
"epoch": 6.2, |
|
"learning_rate": 1.1041666666666668e-05, |
|
"loss": 3.422, |
|
"step": 66900 |
|
}, |
|
{ |
|
"epoch": 6.21, |
|
"learning_rate": 1.1008333333333334e-05, |
|
"loss": 3.4181, |
|
"step": 67000 |
|
}, |
|
{ |
|
"epoch": 6.21, |
|
"eval_loss": 3.568237066268921, |
|
"eval_runtime": 23.8051, |
|
"eval_samples_per_second": 105.944, |
|
"eval_steps_per_second": 6.637, |
|
"step": 67000 |
|
}, |
|
{ |
|
"epoch": 6.22, |
|
"learning_rate": 1.0975e-05, |
|
"loss": 3.4151, |
|
"step": 67100 |
|
}, |
|
{ |
|
"epoch": 6.23, |
|
"learning_rate": 1.0941666666666667e-05, |
|
"loss": 3.4258, |
|
"step": 67200 |
|
}, |
|
{ |
|
"epoch": 6.24, |
|
"learning_rate": 1.0908333333333334e-05, |
|
"loss": 3.411, |
|
"step": 67300 |
|
}, |
|
{ |
|
"epoch": 6.25, |
|
"learning_rate": 1.0875e-05, |
|
"loss": 3.4326, |
|
"step": 67400 |
|
}, |
|
{ |
|
"epoch": 6.26, |
|
"learning_rate": 1.0841666666666666e-05, |
|
"loss": 3.4314, |
|
"step": 67500 |
|
}, |
|
{ |
|
"epoch": 6.26, |
|
"eval_loss": 3.566948413848877, |
|
"eval_runtime": 23.7688, |
|
"eval_samples_per_second": 106.105, |
|
"eval_steps_per_second": 6.647, |
|
"step": 67500 |
|
}, |
|
{ |
|
"epoch": 6.27, |
|
"learning_rate": 1.0808333333333333e-05, |
|
"loss": 3.3988, |
|
"step": 67600 |
|
}, |
|
{ |
|
"epoch": 6.28, |
|
"learning_rate": 1.0775000000000001e-05, |
|
"loss": 3.4227, |
|
"step": 67700 |
|
}, |
|
{ |
|
"epoch": 6.28, |
|
"learning_rate": 1.0741666666666667e-05, |
|
"loss": 3.4358, |
|
"step": 67800 |
|
}, |
|
{ |
|
"epoch": 6.29, |
|
"learning_rate": 1.0708333333333334e-05, |
|
"loss": 3.4499, |
|
"step": 67900 |
|
}, |
|
{ |
|
"epoch": 6.3, |
|
"learning_rate": 1.0675e-05, |
|
"loss": 3.4245, |
|
"step": 68000 |
|
}, |
|
{ |
|
"epoch": 6.3, |
|
"eval_loss": 3.562889575958252, |
|
"eval_runtime": 23.7724, |
|
"eval_samples_per_second": 106.089, |
|
"eval_steps_per_second": 6.646, |
|
"step": 68000 |
|
}, |
|
{ |
|
"epoch": 6.31, |
|
"learning_rate": 1.0641666666666667e-05, |
|
"loss": 3.4124, |
|
"step": 68100 |
|
}, |
|
{ |
|
"epoch": 6.32, |
|
"learning_rate": 1.0608333333333333e-05, |
|
"loss": 3.4106, |
|
"step": 68200 |
|
}, |
|
{ |
|
"epoch": 6.33, |
|
"learning_rate": 1.0575e-05, |
|
"loss": 3.4115, |
|
"step": 68300 |
|
}, |
|
{ |
|
"epoch": 6.34, |
|
"learning_rate": 1.0541666666666666e-05, |
|
"loss": 3.4309, |
|
"step": 68400 |
|
}, |
|
{ |
|
"epoch": 6.35, |
|
"learning_rate": 1.0508333333333334e-05, |
|
"loss": 3.421, |
|
"step": 68500 |
|
}, |
|
{ |
|
"epoch": 6.35, |
|
"eval_loss": 3.566340446472168, |
|
"eval_runtime": 23.7726, |
|
"eval_samples_per_second": 106.089, |
|
"eval_steps_per_second": 6.646, |
|
"step": 68500 |
|
}, |
|
{ |
|
"epoch": 6.36, |
|
"learning_rate": 1.0475e-05, |
|
"loss": 3.4107, |
|
"step": 68600 |
|
}, |
|
{ |
|
"epoch": 6.37, |
|
"learning_rate": 1.0441666666666667e-05, |
|
"loss": 3.4152, |
|
"step": 68700 |
|
}, |
|
{ |
|
"epoch": 6.38, |
|
"learning_rate": 1.0408333333333333e-05, |
|
"loss": 3.4019, |
|
"step": 68800 |
|
}, |
|
{ |
|
"epoch": 6.39, |
|
"learning_rate": 1.0375e-05, |
|
"loss": 3.3954, |
|
"step": 68900 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"learning_rate": 1.0341666666666666e-05, |
|
"loss": 3.4329, |
|
"step": 69000 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"eval_loss": 3.565971851348877, |
|
"eval_runtime": 23.7798, |
|
"eval_samples_per_second": 106.056, |
|
"eval_steps_per_second": 6.644, |
|
"step": 69000 |
|
}, |
|
{ |
|
"epoch": 6.41, |
|
"learning_rate": 1.0308333333333333e-05, |
|
"loss": 3.419, |
|
"step": 69100 |
|
}, |
|
{ |
|
"epoch": 6.41, |
|
"learning_rate": 1.0275e-05, |
|
"loss": 3.4272, |
|
"step": 69200 |
|
}, |
|
{ |
|
"epoch": 6.42, |
|
"learning_rate": 1.0241666666666667e-05, |
|
"loss": 3.4056, |
|
"step": 69300 |
|
}, |
|
{ |
|
"epoch": 6.43, |
|
"learning_rate": 1.0208333333333334e-05, |
|
"loss": 3.4373, |
|
"step": 69400 |
|
}, |
|
{ |
|
"epoch": 6.44, |
|
"learning_rate": 1.0175333333333334e-05, |
|
"loss": 3.4122, |
|
"step": 69500 |
|
}, |
|
{ |
|
"epoch": 6.44, |
|
"eval_loss": 3.5650551319122314, |
|
"eval_runtime": 23.7808, |
|
"eval_samples_per_second": 106.052, |
|
"eval_steps_per_second": 6.644, |
|
"step": 69500 |
|
}, |
|
{ |
|
"epoch": 6.45, |
|
"learning_rate": 1.0142e-05, |
|
"loss": 3.4152, |
|
"step": 69600 |
|
}, |
|
{ |
|
"epoch": 6.46, |
|
"learning_rate": 1.0109000000000001e-05, |
|
"loss": 3.463, |
|
"step": 69700 |
|
}, |
|
{ |
|
"epoch": 6.47, |
|
"learning_rate": 1.0075666666666667e-05, |
|
"loss": 3.4214, |
|
"step": 69800 |
|
}, |
|
{ |
|
"epoch": 6.48, |
|
"learning_rate": 1.0042333333333334e-05, |
|
"loss": 3.4423, |
|
"step": 69900 |
|
}, |
|
{ |
|
"epoch": 6.49, |
|
"learning_rate": 1.0009e-05, |
|
"loss": 3.4362, |
|
"step": 70000 |
|
}, |
|
{ |
|
"epoch": 6.49, |
|
"eval_loss": 3.5628156661987305, |
|
"eval_runtime": 23.761, |
|
"eval_samples_per_second": 106.14, |
|
"eval_steps_per_second": 6.65, |
|
"step": 70000 |
|
}, |
|
{ |
|
"epoch": 6.5, |
|
"learning_rate": 9.975666666666667e-06, |
|
"loss": 3.4393, |
|
"step": 70100 |
|
}, |
|
{ |
|
"epoch": 6.51, |
|
"learning_rate": 9.942333333333333e-06, |
|
"loss": 3.4448, |
|
"step": 70200 |
|
}, |
|
{ |
|
"epoch": 6.52, |
|
"learning_rate": 9.909e-06, |
|
"loss": 3.4162, |
|
"step": 70300 |
|
}, |
|
{ |
|
"epoch": 6.53, |
|
"learning_rate": 9.875666666666666e-06, |
|
"loss": 3.4291, |
|
"step": 70400 |
|
}, |
|
{ |
|
"epoch": 6.54, |
|
"learning_rate": 9.842333333333334e-06, |
|
"loss": 3.4497, |
|
"step": 70500 |
|
}, |
|
{ |
|
"epoch": 6.54, |
|
"eval_loss": 3.5647528171539307, |
|
"eval_runtime": 23.7333, |
|
"eval_samples_per_second": 106.264, |
|
"eval_steps_per_second": 6.657, |
|
"step": 70500 |
|
}, |
|
{ |
|
"epoch": 6.54, |
|
"learning_rate": 9.809e-06, |
|
"loss": 3.4127, |
|
"step": 70600 |
|
}, |
|
{ |
|
"epoch": 6.55, |
|
"learning_rate": 9.775666666666667e-06, |
|
"loss": 3.4347, |
|
"step": 70700 |
|
}, |
|
{ |
|
"epoch": 6.56, |
|
"learning_rate": 9.742333333333333e-06, |
|
"loss": 3.4317, |
|
"step": 70800 |
|
}, |
|
{ |
|
"epoch": 6.57, |
|
"learning_rate": 9.709e-06, |
|
"loss": 3.4201, |
|
"step": 70900 |
|
}, |
|
{ |
|
"epoch": 6.58, |
|
"learning_rate": 9.675666666666666e-06, |
|
"loss": 3.431, |
|
"step": 71000 |
|
}, |
|
{ |
|
"epoch": 6.58, |
|
"eval_loss": 3.562624216079712, |
|
"eval_runtime": 23.7932, |
|
"eval_samples_per_second": 105.997, |
|
"eval_steps_per_second": 6.641, |
|
"step": 71000 |
|
}, |
|
{ |
|
"epoch": 6.59, |
|
"learning_rate": 9.642333333333333e-06, |
|
"loss": 3.4172, |
|
"step": 71100 |
|
}, |
|
{ |
|
"epoch": 6.6, |
|
"learning_rate": 9.608999999999999e-06, |
|
"loss": 3.4387, |
|
"step": 71200 |
|
}, |
|
{ |
|
"epoch": 6.61, |
|
"learning_rate": 9.575666666666667e-06, |
|
"loss": 3.4288, |
|
"step": 71300 |
|
}, |
|
{ |
|
"epoch": 6.62, |
|
"learning_rate": 9.542333333333334e-06, |
|
"loss": 3.4287, |
|
"step": 71400 |
|
}, |
|
{ |
|
"epoch": 6.63, |
|
"learning_rate": 9.509e-06, |
|
"loss": 3.432, |
|
"step": 71500 |
|
}, |
|
{ |
|
"epoch": 6.63, |
|
"eval_loss": 3.5648353099823, |
|
"eval_runtime": 23.9564, |
|
"eval_samples_per_second": 105.274, |
|
"eval_steps_per_second": 6.595, |
|
"step": 71500 |
|
}, |
|
{ |
|
"epoch": 6.64, |
|
"learning_rate": 9.475666666666666e-06, |
|
"loss": 3.4299, |
|
"step": 71600 |
|
}, |
|
{ |
|
"epoch": 6.65, |
|
"learning_rate": 9.442333333333333e-06, |
|
"loss": 3.4381, |
|
"step": 71700 |
|
}, |
|
{ |
|
"epoch": 6.66, |
|
"learning_rate": 9.409e-06, |
|
"loss": 3.4313, |
|
"step": 71800 |
|
}, |
|
{ |
|
"epoch": 6.66, |
|
"learning_rate": 9.375666666666666e-06, |
|
"loss": 3.4254, |
|
"step": 71900 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"learning_rate": 9.342333333333334e-06, |
|
"loss": 3.4208, |
|
"step": 72000 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"eval_loss": 3.563504934310913, |
|
"eval_runtime": 23.7942, |
|
"eval_samples_per_second": 105.992, |
|
"eval_steps_per_second": 6.64, |
|
"step": 72000 |
|
}, |
|
{ |
|
"epoch": 6.68, |
|
"learning_rate": 9.309e-06, |
|
"loss": 3.4348, |
|
"step": 72100 |
|
}, |
|
{ |
|
"epoch": 6.69, |
|
"learning_rate": 9.275666666666667e-06, |
|
"loss": 3.4201, |
|
"step": 72200 |
|
}, |
|
{ |
|
"epoch": 6.7, |
|
"learning_rate": 9.242333333333333e-06, |
|
"loss": 3.3956, |
|
"step": 72300 |
|
}, |
|
{ |
|
"epoch": 6.71, |
|
"learning_rate": 9.209e-06, |
|
"loss": 3.4262, |
|
"step": 72400 |
|
}, |
|
{ |
|
"epoch": 6.72, |
|
"learning_rate": 9.175666666666666e-06, |
|
"loss": 3.4526, |
|
"step": 72500 |
|
}, |
|
{ |
|
"epoch": 6.72, |
|
"eval_loss": 3.564483404159546, |
|
"eval_runtime": 23.8074, |
|
"eval_samples_per_second": 105.934, |
|
"eval_steps_per_second": 6.637, |
|
"step": 72500 |
|
}, |
|
{ |
|
"epoch": 6.73, |
|
"learning_rate": 9.142333333333332e-06, |
|
"loss": 3.4344, |
|
"step": 72600 |
|
}, |
|
{ |
|
"epoch": 6.74, |
|
"learning_rate": 9.109e-06, |
|
"loss": 3.4501, |
|
"step": 72700 |
|
}, |
|
{ |
|
"epoch": 6.75, |
|
"learning_rate": 9.075666666666668e-06, |
|
"loss": 3.405, |
|
"step": 72800 |
|
}, |
|
{ |
|
"epoch": 6.76, |
|
"learning_rate": 9.042333333333335e-06, |
|
"loss": 3.4416, |
|
"step": 72900 |
|
}, |
|
{ |
|
"epoch": 6.77, |
|
"learning_rate": 9.009000000000001e-06, |
|
"loss": 3.4139, |
|
"step": 73000 |
|
}, |
|
{ |
|
"epoch": 6.77, |
|
"eval_loss": 3.5620737075805664, |
|
"eval_runtime": 23.7869, |
|
"eval_samples_per_second": 106.025, |
|
"eval_steps_per_second": 6.642, |
|
"step": 73000 |
|
}, |
|
{ |
|
"epoch": 6.78, |
|
"learning_rate": 8.975666666666668e-06, |
|
"loss": 3.4286, |
|
"step": 73100 |
|
}, |
|
{ |
|
"epoch": 6.79, |
|
"learning_rate": 8.942333333333334e-06, |
|
"loss": 3.428, |
|
"step": 73200 |
|
}, |
|
{ |
|
"epoch": 6.79, |
|
"learning_rate": 8.909e-06, |
|
"loss": 3.4446, |
|
"step": 73300 |
|
}, |
|
{ |
|
"epoch": 6.8, |
|
"learning_rate": 8.875666666666667e-06, |
|
"loss": 3.415, |
|
"step": 73400 |
|
}, |
|
{ |
|
"epoch": 6.81, |
|
"learning_rate": 8.842333333333333e-06, |
|
"loss": 3.4212, |
|
"step": 73500 |
|
}, |
|
{ |
|
"epoch": 6.81, |
|
"eval_loss": 3.562941789627075, |
|
"eval_runtime": 23.7809, |
|
"eval_samples_per_second": 106.051, |
|
"eval_steps_per_second": 6.644, |
|
"step": 73500 |
|
}, |
|
{ |
|
"epoch": 6.82, |
|
"learning_rate": 8.809000000000002e-06, |
|
"loss": 3.4272, |
|
"step": 73600 |
|
}, |
|
{ |
|
"epoch": 6.83, |
|
"learning_rate": 8.775666666666668e-06, |
|
"loss": 3.4448, |
|
"step": 73700 |
|
}, |
|
{ |
|
"epoch": 6.84, |
|
"learning_rate": 8.742333333333334e-06, |
|
"loss": 3.4102, |
|
"step": 73800 |
|
}, |
|
{ |
|
"epoch": 6.85, |
|
"learning_rate": 8.709e-06, |
|
"loss": 3.4299, |
|
"step": 73900 |
|
}, |
|
{ |
|
"epoch": 6.86, |
|
"learning_rate": 8.675666666666667e-06, |
|
"loss": 3.4352, |
|
"step": 74000 |
|
}, |
|
{ |
|
"epoch": 6.86, |
|
"eval_loss": 3.5597243309020996, |
|
"eval_runtime": 23.7901, |
|
"eval_samples_per_second": 106.01, |
|
"eval_steps_per_second": 6.641, |
|
"step": 74000 |
|
}, |
|
{ |
|
"epoch": 6.87, |
|
"learning_rate": 8.642333333333334e-06, |
|
"loss": 3.4144, |
|
"step": 74100 |
|
}, |
|
{ |
|
"epoch": 6.88, |
|
"learning_rate": 8.609e-06, |
|
"loss": 3.4328, |
|
"step": 74200 |
|
}, |
|
{ |
|
"epoch": 6.89, |
|
"learning_rate": 8.575666666666666e-06, |
|
"loss": 3.4214, |
|
"step": 74300 |
|
}, |
|
{ |
|
"epoch": 6.9, |
|
"learning_rate": 8.542333333333335e-06, |
|
"loss": 3.4055, |
|
"step": 74400 |
|
}, |
|
{ |
|
"epoch": 6.91, |
|
"learning_rate": 8.509000000000001e-06, |
|
"loss": 3.4242, |
|
"step": 74500 |
|
}, |
|
{ |
|
"epoch": 6.91, |
|
"eval_loss": 3.559704303741455, |
|
"eval_runtime": 23.8077, |
|
"eval_samples_per_second": 105.932, |
|
"eval_steps_per_second": 6.637, |
|
"step": 74500 |
|
}, |
|
{ |
|
"epoch": 6.92, |
|
"learning_rate": 8.475666666666667e-06, |
|
"loss": 3.4363, |
|
"step": 74600 |
|
}, |
|
{ |
|
"epoch": 6.92, |
|
"learning_rate": 8.442333333333334e-06, |
|
"loss": 3.4417, |
|
"step": 74700 |
|
}, |
|
{ |
|
"epoch": 6.93, |
|
"learning_rate": 8.409e-06, |
|
"loss": 3.4616, |
|
"step": 74800 |
|
}, |
|
{ |
|
"epoch": 6.94, |
|
"learning_rate": 8.375666666666667e-06, |
|
"loss": 3.4322, |
|
"step": 74900 |
|
}, |
|
{ |
|
"epoch": 6.95, |
|
"learning_rate": 8.342333333333333e-06, |
|
"loss": 3.429, |
|
"step": 75000 |
|
}, |
|
{ |
|
"epoch": 6.95, |
|
"eval_loss": 3.561878204345703, |
|
"eval_runtime": 23.7887, |
|
"eval_samples_per_second": 106.017, |
|
"eval_steps_per_second": 6.642, |
|
"step": 75000 |
|
}, |
|
{ |
|
"epoch": 6.96, |
|
"learning_rate": 8.309000000000001e-06, |
|
"loss": 3.4187, |
|
"step": 75100 |
|
}, |
|
{ |
|
"epoch": 6.97, |
|
"learning_rate": 8.276e-06, |
|
"loss": 3.419, |
|
"step": 75200 |
|
}, |
|
{ |
|
"epoch": 6.98, |
|
"learning_rate": 8.242666666666666e-06, |
|
"loss": 3.4123, |
|
"step": 75300 |
|
}, |
|
{ |
|
"epoch": 6.99, |
|
"learning_rate": 8.209333333333335e-06, |
|
"loss": 3.4338, |
|
"step": 75400 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"learning_rate": 8.176000000000001e-06, |
|
"loss": 3.4133, |
|
"step": 75500 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"eval_loss": 3.5591769218444824, |
|
"eval_runtime": 23.7782, |
|
"eval_samples_per_second": 106.064, |
|
"eval_steps_per_second": 6.645, |
|
"step": 75500 |
|
}, |
|
{ |
|
"epoch": 7.01, |
|
"learning_rate": 8.142666666666667e-06, |
|
"loss": 3.4184, |
|
"step": 75600 |
|
}, |
|
{ |
|
"epoch": 7.02, |
|
"learning_rate": 8.109333333333334e-06, |
|
"loss": 3.3904, |
|
"step": 75700 |
|
}, |
|
{ |
|
"epoch": 7.03, |
|
"learning_rate": 8.076e-06, |
|
"loss": 3.3813, |
|
"step": 75800 |
|
}, |
|
{ |
|
"epoch": 7.04, |
|
"learning_rate": 8.042666666666667e-06, |
|
"loss": 3.4422, |
|
"step": 75900 |
|
}, |
|
{ |
|
"epoch": 7.04, |
|
"learning_rate": 8.009333333333333e-06, |
|
"loss": 3.4086, |
|
"step": 76000 |
|
}, |
|
{ |
|
"epoch": 7.04, |
|
"eval_loss": 3.562080144882202, |
|
"eval_runtime": 23.7794, |
|
"eval_samples_per_second": 106.058, |
|
"eval_steps_per_second": 6.644, |
|
"step": 76000 |
|
}, |
|
{ |
|
"epoch": 7.05, |
|
"learning_rate": 7.976e-06, |
|
"loss": 3.3967, |
|
"step": 76100 |
|
}, |
|
{ |
|
"epoch": 7.06, |
|
"learning_rate": 7.942666666666668e-06, |
|
"loss": 3.3924, |
|
"step": 76200 |
|
}, |
|
{ |
|
"epoch": 7.07, |
|
"learning_rate": 7.909333333333334e-06, |
|
"loss": 3.4045, |
|
"step": 76300 |
|
}, |
|
{ |
|
"epoch": 7.08, |
|
"learning_rate": 7.876e-06, |
|
"loss": 3.4003, |
|
"step": 76400 |
|
}, |
|
{ |
|
"epoch": 7.09, |
|
"learning_rate": 7.842666666666667e-06, |
|
"loss": 3.4056, |
|
"step": 76500 |
|
}, |
|
{ |
|
"epoch": 7.09, |
|
"eval_loss": 3.5603981018066406, |
|
"eval_runtime": 23.7637, |
|
"eval_samples_per_second": 106.128, |
|
"eval_steps_per_second": 6.649, |
|
"step": 76500 |
|
}, |
|
{ |
|
"epoch": 7.1, |
|
"learning_rate": 7.809333333333333e-06, |
|
"loss": 3.4325, |
|
"step": 76600 |
|
}, |
|
{ |
|
"epoch": 7.11, |
|
"learning_rate": 7.776e-06, |
|
"loss": 3.4493, |
|
"step": 76700 |
|
}, |
|
{ |
|
"epoch": 7.12, |
|
"learning_rate": 7.742666666666666e-06, |
|
"loss": 3.4245, |
|
"step": 76800 |
|
}, |
|
{ |
|
"epoch": 7.13, |
|
"learning_rate": 7.709333333333334e-06, |
|
"loss": 3.3955, |
|
"step": 76900 |
|
}, |
|
{ |
|
"epoch": 7.14, |
|
"learning_rate": 7.676e-06, |
|
"loss": 3.4158, |
|
"step": 77000 |
|
}, |
|
{ |
|
"epoch": 7.14, |
|
"eval_loss": 3.56292986869812, |
|
"eval_runtime": 23.8347, |
|
"eval_samples_per_second": 105.812, |
|
"eval_steps_per_second": 6.629, |
|
"step": 77000 |
|
}, |
|
{ |
|
"epoch": 7.15, |
|
"learning_rate": 7.642666666666667e-06, |
|
"loss": 3.3797, |
|
"step": 77100 |
|
}, |
|
{ |
|
"epoch": 7.16, |
|
"learning_rate": 7.6093333333333335e-06, |
|
"loss": 3.4144, |
|
"step": 77200 |
|
}, |
|
{ |
|
"epoch": 7.17, |
|
"learning_rate": 7.576e-06, |
|
"loss": 3.4127, |
|
"step": 77300 |
|
}, |
|
{ |
|
"epoch": 7.17, |
|
"learning_rate": 7.542666666666666e-06, |
|
"loss": 3.4166, |
|
"step": 77400 |
|
}, |
|
{ |
|
"epoch": 7.18, |
|
"learning_rate": 7.509333333333333e-06, |
|
"loss": 3.4153, |
|
"step": 77500 |
|
}, |
|
{ |
|
"epoch": 7.18, |
|
"eval_loss": 3.5608999729156494, |
|
"eval_runtime": 23.7878, |
|
"eval_samples_per_second": 106.021, |
|
"eval_steps_per_second": 6.642, |
|
"step": 77500 |
|
}, |
|
{ |
|
"epoch": 7.19, |
|
"learning_rate": 7.476e-06, |
|
"loss": 3.4062, |
|
"step": 77600 |
|
}, |
|
{ |
|
"epoch": 7.2, |
|
"learning_rate": 7.4426666666666665e-06, |
|
"loss": 3.4288, |
|
"step": 77700 |
|
}, |
|
{ |
|
"epoch": 7.21, |
|
"learning_rate": 7.409333333333333e-06, |
|
"loss": 3.4145, |
|
"step": 77800 |
|
}, |
|
{ |
|
"epoch": 7.22, |
|
"learning_rate": 7.376e-06, |
|
"loss": 3.4103, |
|
"step": 77900 |
|
}, |
|
{ |
|
"epoch": 7.23, |
|
"learning_rate": 7.342666666666667e-06, |
|
"loss": 3.4155, |
|
"step": 78000 |
|
}, |
|
{ |
|
"epoch": 7.23, |
|
"eval_loss": 3.5620954036712646, |
|
"eval_runtime": 23.793, |
|
"eval_samples_per_second": 105.997, |
|
"eval_steps_per_second": 6.641, |
|
"step": 78000 |
|
}, |
|
{ |
|
"epoch": 7.24, |
|
"learning_rate": 7.309333333333333e-06, |
|
"loss": 3.4204, |
|
"step": 78100 |
|
}, |
|
{ |
|
"epoch": 7.25, |
|
"learning_rate": 7.2759999999999995e-06, |
|
"loss": 3.3973, |
|
"step": 78200 |
|
}, |
|
{ |
|
"epoch": 7.26, |
|
"learning_rate": 7.2426666666666676e-06, |
|
"loss": 3.4022, |
|
"step": 78300 |
|
}, |
|
{ |
|
"epoch": 7.27, |
|
"learning_rate": 7.209333333333334e-06, |
|
"loss": 3.3983, |
|
"step": 78400 |
|
}, |
|
{ |
|
"epoch": 7.28, |
|
"learning_rate": 7.176e-06, |
|
"loss": 3.4117, |
|
"step": 78500 |
|
}, |
|
{ |
|
"epoch": 7.28, |
|
"eval_loss": 3.5625743865966797, |
|
"eval_runtime": 23.7846, |
|
"eval_samples_per_second": 106.035, |
|
"eval_steps_per_second": 6.643, |
|
"step": 78500 |
|
}, |
|
{ |
|
"epoch": 7.29, |
|
"learning_rate": 7.142666666666667e-06, |
|
"loss": 3.4003, |
|
"step": 78600 |
|
}, |
|
{ |
|
"epoch": 7.3, |
|
"learning_rate": 7.109333333333334e-06, |
|
"loss": 3.4077, |
|
"step": 78700 |
|
}, |
|
{ |
|
"epoch": 7.3, |
|
"learning_rate": 7.0760000000000005e-06, |
|
"loss": 3.4098, |
|
"step": 78800 |
|
}, |
|
{ |
|
"epoch": 7.31, |
|
"learning_rate": 7.042666666666667e-06, |
|
"loss": 3.3968, |
|
"step": 78900 |
|
}, |
|
{ |
|
"epoch": 7.32, |
|
"learning_rate": 7.009333333333333e-06, |
|
"loss": 3.407, |
|
"step": 79000 |
|
}, |
|
{ |
|
"epoch": 7.32, |
|
"eval_loss": 3.563791275024414, |
|
"eval_runtime": 23.7857, |
|
"eval_samples_per_second": 106.03, |
|
"eval_steps_per_second": 6.643, |
|
"step": 79000 |
|
}, |
|
{ |
|
"epoch": 7.33, |
|
"learning_rate": 6.976000000000001e-06, |
|
"loss": 3.4117, |
|
"step": 79100 |
|
}, |
|
{ |
|
"epoch": 7.34, |
|
"learning_rate": 6.942666666666667e-06, |
|
"loss": 3.4233, |
|
"step": 79200 |
|
}, |
|
{ |
|
"epoch": 7.35, |
|
"learning_rate": 6.9093333333333335e-06, |
|
"loss": 3.3917, |
|
"step": 79300 |
|
}, |
|
{ |
|
"epoch": 7.36, |
|
"learning_rate": 6.876e-06, |
|
"loss": 3.3981, |
|
"step": 79400 |
|
}, |
|
{ |
|
"epoch": 7.37, |
|
"learning_rate": 6.843e-06, |
|
"loss": 3.3977, |
|
"step": 79500 |
|
}, |
|
{ |
|
"epoch": 7.37, |
|
"eval_loss": 3.5603787899017334, |
|
"eval_runtime": 23.7147, |
|
"eval_samples_per_second": 106.348, |
|
"eval_steps_per_second": 6.663, |
|
"step": 79500 |
|
}, |
|
{ |
|
"epoch": 7.38, |
|
"learning_rate": 6.81e-06, |
|
"loss": 3.418, |
|
"step": 79600 |
|
}, |
|
{ |
|
"epoch": 7.39, |
|
"learning_rate": 6.7766666666666664e-06, |
|
"loss": 3.4228, |
|
"step": 79700 |
|
}, |
|
{ |
|
"epoch": 7.4, |
|
"learning_rate": 6.743333333333334e-06, |
|
"loss": 3.4012, |
|
"step": 79800 |
|
}, |
|
{ |
|
"epoch": 7.41, |
|
"learning_rate": 6.710000000000001e-06, |
|
"loss": 3.4078, |
|
"step": 79900 |
|
}, |
|
{ |
|
"epoch": 7.42, |
|
"learning_rate": 6.676666666666667e-06, |
|
"loss": 3.4134, |
|
"step": 80000 |
|
}, |
|
{ |
|
"epoch": 7.42, |
|
"eval_loss": 3.5610873699188232, |
|
"eval_runtime": 23.7819, |
|
"eval_samples_per_second": 106.047, |
|
"eval_steps_per_second": 6.644, |
|
"step": 80000 |
|
}, |
|
{ |
|
"epoch": 7.42, |
|
"learning_rate": 6.643333333333334e-06, |
|
"loss": 3.4111, |
|
"step": 80100 |
|
}, |
|
{ |
|
"epoch": 7.43, |
|
"learning_rate": 6.61e-06, |
|
"loss": 3.4028, |
|
"step": 80200 |
|
}, |
|
{ |
|
"epoch": 7.44, |
|
"learning_rate": 6.5766666666666675e-06, |
|
"loss": 3.4303, |
|
"step": 80300 |
|
}, |
|
{ |
|
"epoch": 7.45, |
|
"learning_rate": 6.543333333333334e-06, |
|
"loss": 3.3938, |
|
"step": 80400 |
|
}, |
|
{ |
|
"epoch": 7.46, |
|
"learning_rate": 6.51e-06, |
|
"loss": 3.4403, |
|
"step": 80500 |
|
}, |
|
{ |
|
"epoch": 7.46, |
|
"eval_loss": 3.563021659851074, |
|
"eval_runtime": 23.7781, |
|
"eval_samples_per_second": 106.064, |
|
"eval_steps_per_second": 6.645, |
|
"step": 80500 |
|
}, |
|
{ |
|
"epoch": 7.47, |
|
"learning_rate": 6.476666666666667e-06, |
|
"loss": 3.409, |
|
"step": 80600 |
|
}, |
|
{ |
|
"epoch": 7.48, |
|
"learning_rate": 6.443333333333334e-06, |
|
"loss": 3.4077, |
|
"step": 80700 |
|
}, |
|
{ |
|
"epoch": 7.49, |
|
"learning_rate": 6.4100000000000005e-06, |
|
"loss": 3.4048, |
|
"step": 80800 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"learning_rate": 6.376666666666667e-06, |
|
"loss": 3.3906, |
|
"step": 80900 |
|
}, |
|
{ |
|
"epoch": 7.51, |
|
"learning_rate": 6.343666666666667e-06, |
|
"loss": 3.4002, |
|
"step": 81000 |
|
}, |
|
{ |
|
"epoch": 7.51, |
|
"eval_loss": 3.5600671768188477, |
|
"eval_runtime": 23.7876, |
|
"eval_samples_per_second": 106.022, |
|
"eval_steps_per_second": 6.642, |
|
"step": 81000 |
|
}, |
|
{ |
|
"epoch": 7.52, |
|
"learning_rate": 6.310333333333334e-06, |
|
"loss": 3.4011, |
|
"step": 81100 |
|
}, |
|
{ |
|
"epoch": 7.53, |
|
"learning_rate": 6.277e-06, |
|
"loss": 3.4164, |
|
"step": 81200 |
|
}, |
|
{ |
|
"epoch": 7.54, |
|
"learning_rate": 6.243666666666667e-06, |
|
"loss": 3.4116, |
|
"step": 81300 |
|
}, |
|
{ |
|
"epoch": 7.55, |
|
"learning_rate": 6.210333333333334e-06, |
|
"loss": 3.3992, |
|
"step": 81400 |
|
}, |
|
{ |
|
"epoch": 7.55, |
|
"learning_rate": 6.177e-06, |
|
"loss": 3.4147, |
|
"step": 81500 |
|
}, |
|
{ |
|
"epoch": 7.55, |
|
"eval_loss": 3.557727098464966, |
|
"eval_runtime": 23.7591, |
|
"eval_samples_per_second": 106.149, |
|
"eval_steps_per_second": 6.65, |
|
"step": 81500 |
|
}, |
|
{ |
|
"epoch": 7.56, |
|
"learning_rate": 6.143666666666667e-06, |
|
"loss": 3.4273, |
|
"step": 81600 |
|
}, |
|
{ |
|
"epoch": 7.57, |
|
"learning_rate": 6.110333333333334e-06, |
|
"loss": 3.4086, |
|
"step": 81700 |
|
}, |
|
{ |
|
"epoch": 7.58, |
|
"learning_rate": 6.0770000000000004e-06, |
|
"loss": 3.4102, |
|
"step": 81800 |
|
}, |
|
{ |
|
"epoch": 7.59, |
|
"learning_rate": 6.043666666666667e-06, |
|
"loss": 3.4214, |
|
"step": 81900 |
|
}, |
|
{ |
|
"epoch": 7.6, |
|
"learning_rate": 6.010333333333333e-06, |
|
"loss": 3.4068, |
|
"step": 82000 |
|
}, |
|
{ |
|
"epoch": 7.6, |
|
"eval_loss": 3.5587644577026367, |
|
"eval_runtime": 23.8126, |
|
"eval_samples_per_second": 105.91, |
|
"eval_steps_per_second": 6.635, |
|
"step": 82000 |
|
}, |
|
{ |
|
"epoch": 7.61, |
|
"learning_rate": 5.9770000000000005e-06, |
|
"loss": 3.422, |
|
"step": 82100 |
|
}, |
|
{ |
|
"epoch": 7.62, |
|
"learning_rate": 5.943666666666667e-06, |
|
"loss": 3.4128, |
|
"step": 82200 |
|
}, |
|
{ |
|
"epoch": 7.63, |
|
"learning_rate": 5.910333333333333e-06, |
|
"loss": 3.3978, |
|
"step": 82300 |
|
}, |
|
{ |
|
"epoch": 7.64, |
|
"learning_rate": 5.877e-06, |
|
"loss": 3.4095, |
|
"step": 82400 |
|
}, |
|
{ |
|
"epoch": 7.65, |
|
"learning_rate": 5.843666666666667e-06, |
|
"loss": 3.4165, |
|
"step": 82500 |
|
}, |
|
{ |
|
"epoch": 7.65, |
|
"eval_loss": 3.5612709522247314, |
|
"eval_runtime": 23.7739, |
|
"eval_samples_per_second": 106.083, |
|
"eval_steps_per_second": 6.646, |
|
"step": 82500 |
|
}, |
|
{ |
|
"epoch": 7.66, |
|
"learning_rate": 5.8103333333333335e-06, |
|
"loss": 3.3894, |
|
"step": 82600 |
|
}, |
|
{ |
|
"epoch": 7.67, |
|
"learning_rate": 5.777e-06, |
|
"loss": 3.3967, |
|
"step": 82700 |
|
}, |
|
{ |
|
"epoch": 7.68, |
|
"learning_rate": 5.743666666666666e-06, |
|
"loss": 3.4344, |
|
"step": 82800 |
|
}, |
|
{ |
|
"epoch": 7.68, |
|
"learning_rate": 5.710333333333334e-06, |
|
"loss": 3.4359, |
|
"step": 82900 |
|
}, |
|
{ |
|
"epoch": 7.69, |
|
"learning_rate": 5.677e-06, |
|
"loss": 3.409, |
|
"step": 83000 |
|
}, |
|
{ |
|
"epoch": 7.69, |
|
"eval_loss": 3.55955171585083, |
|
"eval_runtime": 23.7881, |
|
"eval_samples_per_second": 106.019, |
|
"eval_steps_per_second": 6.642, |
|
"step": 83000 |
|
}, |
|
{ |
|
"epoch": 7.7, |
|
"learning_rate": 5.6436666666666664e-06, |
|
"loss": 3.403, |
|
"step": 83100 |
|
}, |
|
{ |
|
"epoch": 7.71, |
|
"learning_rate": 5.610333333333333e-06, |
|
"loss": 3.3973, |
|
"step": 83200 |
|
}, |
|
{ |
|
"epoch": 7.72, |
|
"learning_rate": 5.577e-06, |
|
"loss": 3.4116, |
|
"step": 83300 |
|
}, |
|
{ |
|
"epoch": 7.73, |
|
"learning_rate": 5.5436666666666666e-06, |
|
"loss": 3.4164, |
|
"step": 83400 |
|
}, |
|
{ |
|
"epoch": 7.74, |
|
"learning_rate": 5.510333333333333e-06, |
|
"loss": 3.4213, |
|
"step": 83500 |
|
}, |
|
{ |
|
"epoch": 7.74, |
|
"eval_loss": 3.558309555053711, |
|
"eval_runtime": 23.7902, |
|
"eval_samples_per_second": 106.01, |
|
"eval_steps_per_second": 6.641, |
|
"step": 83500 |
|
}, |
|
{ |
|
"epoch": 7.75, |
|
"learning_rate": 5.476999999999999e-06, |
|
"loss": 3.4144, |
|
"step": 83600 |
|
}, |
|
{ |
|
"epoch": 7.76, |
|
"learning_rate": 5.443666666666667e-06, |
|
"loss": 3.4265, |
|
"step": 83700 |
|
}, |
|
{ |
|
"epoch": 7.77, |
|
"learning_rate": 5.410333333333334e-06, |
|
"loss": 3.4128, |
|
"step": 83800 |
|
}, |
|
{ |
|
"epoch": 7.78, |
|
"learning_rate": 5.377e-06, |
|
"loss": 3.4057, |
|
"step": 83900 |
|
}, |
|
{ |
|
"epoch": 7.79, |
|
"learning_rate": 5.343666666666667e-06, |
|
"loss": 3.403, |
|
"step": 84000 |
|
}, |
|
{ |
|
"epoch": 7.79, |
|
"eval_loss": 3.5601158142089844, |
|
"eval_runtime": 23.7948, |
|
"eval_samples_per_second": 105.989, |
|
"eval_steps_per_second": 6.64, |
|
"step": 84000 |
|
}, |
|
{ |
|
"epoch": 7.8, |
|
"learning_rate": 5.310333333333334e-06, |
|
"loss": 3.4139, |
|
"step": 84100 |
|
}, |
|
{ |
|
"epoch": 7.8, |
|
"learning_rate": 5.2770000000000005e-06, |
|
"loss": 3.4101, |
|
"step": 84200 |
|
}, |
|
{ |
|
"epoch": 7.81, |
|
"learning_rate": 5.243666666666667e-06, |
|
"loss": 3.3735, |
|
"step": 84300 |
|
}, |
|
{ |
|
"epoch": 7.82, |
|
"learning_rate": 5.210333333333333e-06, |
|
"loss": 3.4077, |
|
"step": 84400 |
|
}, |
|
{ |
|
"epoch": 7.83, |
|
"learning_rate": 5.177000000000001e-06, |
|
"loss": 3.3819, |
|
"step": 84500 |
|
}, |
|
{ |
|
"epoch": 7.83, |
|
"eval_loss": 3.5579638481140137, |
|
"eval_runtime": 23.8048, |
|
"eval_samples_per_second": 105.945, |
|
"eval_steps_per_second": 6.637, |
|
"step": 84500 |
|
}, |
|
{ |
|
"epoch": 7.84, |
|
"learning_rate": 5.143666666666667e-06, |
|
"loss": 3.4202, |
|
"step": 84600 |
|
}, |
|
{ |
|
"epoch": 7.85, |
|
"learning_rate": 5.110333333333333e-06, |
|
"loss": 3.4047, |
|
"step": 84700 |
|
}, |
|
{ |
|
"epoch": 7.86, |
|
"learning_rate": 5.077000000000001e-06, |
|
"loss": 3.4063, |
|
"step": 84800 |
|
}, |
|
{ |
|
"epoch": 7.87, |
|
"learning_rate": 5.043666666666667e-06, |
|
"loss": 3.4038, |
|
"step": 84900 |
|
}, |
|
{ |
|
"epoch": 7.88, |
|
"learning_rate": 5.0103333333333335e-06, |
|
"loss": 3.4182, |
|
"step": 85000 |
|
}, |
|
{ |
|
"epoch": 7.88, |
|
"eval_loss": 3.5569992065429688, |
|
"eval_runtime": 23.7728, |
|
"eval_samples_per_second": 106.088, |
|
"eval_steps_per_second": 6.646, |
|
"step": 85000 |
|
}, |
|
{ |
|
"epoch": 7.89, |
|
"learning_rate": 4.977e-06, |
|
"loss": 3.3997, |
|
"step": 85100 |
|
}, |
|
{ |
|
"epoch": 7.9, |
|
"learning_rate": 4.943666666666667e-06, |
|
"loss": 3.381, |
|
"step": 85200 |
|
}, |
|
{ |
|
"epoch": 7.91, |
|
"learning_rate": 4.910333333333334e-06, |
|
"loss": 3.4129, |
|
"step": 85300 |
|
}, |
|
{ |
|
"epoch": 7.92, |
|
"learning_rate": 4.877e-06, |
|
"loss": 3.4063, |
|
"step": 85400 |
|
}, |
|
{ |
|
"epoch": 7.93, |
|
"learning_rate": 4.8436666666666665e-06, |
|
"loss": 3.4099, |
|
"step": 85500 |
|
}, |
|
{ |
|
"epoch": 7.93, |
|
"eval_loss": 3.556957483291626, |
|
"eval_runtime": 23.7791, |
|
"eval_samples_per_second": 106.06, |
|
"eval_steps_per_second": 6.644, |
|
"step": 85500 |
|
}, |
|
{ |
|
"epoch": 7.93, |
|
"learning_rate": 4.810333333333334e-06, |
|
"loss": 3.4177, |
|
"step": 85600 |
|
}, |
|
{ |
|
"epoch": 7.94, |
|
"learning_rate": 4.777e-06, |
|
"loss": 3.3911, |
|
"step": 85700 |
|
}, |
|
{ |
|
"epoch": 7.95, |
|
"learning_rate": 4.743666666666667e-06, |
|
"loss": 3.4014, |
|
"step": 85800 |
|
}, |
|
{ |
|
"epoch": 7.96, |
|
"learning_rate": 4.710333333333333e-06, |
|
"loss": 3.4199, |
|
"step": 85900 |
|
}, |
|
{ |
|
"epoch": 7.97, |
|
"learning_rate": 4.677e-06, |
|
"loss": 3.3845, |
|
"step": 86000 |
|
}, |
|
{ |
|
"epoch": 7.97, |
|
"eval_loss": 3.558166980743408, |
|
"eval_runtime": 23.7635, |
|
"eval_samples_per_second": 106.129, |
|
"eval_steps_per_second": 6.649, |
|
"step": 86000 |
|
}, |
|
{ |
|
"epoch": 7.98, |
|
"learning_rate": 4.643666666666667e-06, |
|
"loss": 3.3794, |
|
"step": 86100 |
|
}, |
|
{ |
|
"epoch": 7.99, |
|
"learning_rate": 4.610333333333333e-06, |
|
"loss": 3.4015, |
|
"step": 86200 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 4.5769999999999995e-06, |
|
"loss": 3.3849, |
|
"step": 86300 |
|
}, |
|
{ |
|
"epoch": 8.01, |
|
"learning_rate": 4.543666666666667e-06, |
|
"loss": 3.4057, |
|
"step": 86400 |
|
}, |
|
{ |
|
"epoch": 8.02, |
|
"learning_rate": 4.510333333333333e-06, |
|
"loss": 3.411, |
|
"step": 86500 |
|
}, |
|
{ |
|
"epoch": 8.02, |
|
"eval_loss": 3.5609631538391113, |
|
"eval_runtime": 23.7818, |
|
"eval_samples_per_second": 106.047, |
|
"eval_steps_per_second": 6.644, |
|
"step": 86500 |
|
}, |
|
{ |
|
"epoch": 8.03, |
|
"learning_rate": 4.477e-06, |
|
"loss": 3.3687, |
|
"step": 86600 |
|
}, |
|
{ |
|
"epoch": 8.04, |
|
"learning_rate": 4.443666666666666e-06, |
|
"loss": 3.4203, |
|
"step": 86700 |
|
}, |
|
{ |
|
"epoch": 8.05, |
|
"learning_rate": 4.410333333333333e-06, |
|
"loss": 3.3975, |
|
"step": 86800 |
|
}, |
|
{ |
|
"epoch": 8.06, |
|
"learning_rate": 4.377e-06, |
|
"loss": 3.3786, |
|
"step": 86900 |
|
}, |
|
{ |
|
"epoch": 8.06, |
|
"learning_rate": 4.343666666666667e-06, |
|
"loss": 3.3952, |
|
"step": 87000 |
|
}, |
|
{ |
|
"epoch": 8.06, |
|
"eval_loss": 3.558793544769287, |
|
"eval_runtime": 23.7833, |
|
"eval_samples_per_second": 106.041, |
|
"eval_steps_per_second": 6.643, |
|
"step": 87000 |
|
}, |
|
{ |
|
"epoch": 8.07, |
|
"learning_rate": 4.3103333333333335e-06, |
|
"loss": 3.4223, |
|
"step": 87100 |
|
}, |
|
{ |
|
"epoch": 8.08, |
|
"learning_rate": 4.277000000000001e-06, |
|
"loss": 3.3969, |
|
"step": 87200 |
|
}, |
|
{ |
|
"epoch": 8.09, |
|
"learning_rate": 4.243666666666667e-06, |
|
"loss": 3.4057, |
|
"step": 87300 |
|
}, |
|
{ |
|
"epoch": 8.1, |
|
"learning_rate": 4.2103333333333336e-06, |
|
"loss": 3.3814, |
|
"step": 87400 |
|
}, |
|
{ |
|
"epoch": 8.11, |
|
"learning_rate": 4.177e-06, |
|
"loss": 3.4211, |
|
"step": 87500 |
|
}, |
|
{ |
|
"epoch": 8.11, |
|
"eval_loss": 3.558820962905884, |
|
"eval_runtime": 23.7795, |
|
"eval_samples_per_second": 106.058, |
|
"eval_steps_per_second": 6.644, |
|
"step": 87500 |
|
}, |
|
{ |
|
"epoch": 8.12, |
|
"learning_rate": 4.143666666666667e-06, |
|
"loss": 3.3888, |
|
"step": 87600 |
|
}, |
|
{ |
|
"epoch": 8.13, |
|
"learning_rate": 4.110333333333334e-06, |
|
"loss": 3.3956, |
|
"step": 87700 |
|
}, |
|
{ |
|
"epoch": 8.14, |
|
"learning_rate": 4.077e-06, |
|
"loss": 3.3754, |
|
"step": 87800 |
|
}, |
|
{ |
|
"epoch": 8.15, |
|
"learning_rate": 4.043666666666667e-06, |
|
"loss": 3.3996, |
|
"step": 87900 |
|
}, |
|
{ |
|
"epoch": 8.16, |
|
"learning_rate": 4.010333333333334e-06, |
|
"loss": 3.4171, |
|
"step": 88000 |
|
}, |
|
{ |
|
"epoch": 8.16, |
|
"eval_loss": 3.5569565296173096, |
|
"eval_runtime": 23.7758, |
|
"eval_samples_per_second": 106.074, |
|
"eval_steps_per_second": 6.645, |
|
"step": 88000 |
|
}, |
|
{ |
|
"epoch": 8.17, |
|
"learning_rate": 3.977e-06, |
|
"loss": 3.4081, |
|
"step": 88100 |
|
}, |
|
{ |
|
"epoch": 8.18, |
|
"learning_rate": 3.943666666666667e-06, |
|
"loss": 3.3594, |
|
"step": 88200 |
|
}, |
|
{ |
|
"epoch": 8.19, |
|
"learning_rate": 3.910333333333334e-06, |
|
"loss": 3.4095, |
|
"step": 88300 |
|
}, |
|
{ |
|
"epoch": 8.19, |
|
"learning_rate": 3.877e-06, |
|
"loss": 3.4008, |
|
"step": 88400 |
|
}, |
|
{ |
|
"epoch": 8.2, |
|
"learning_rate": 3.843666666666667e-06, |
|
"loss": 3.3825, |
|
"step": 88500 |
|
}, |
|
{ |
|
"epoch": 8.2, |
|
"eval_loss": 3.56074595451355, |
|
"eval_runtime": 23.7071, |
|
"eval_samples_per_second": 106.382, |
|
"eval_steps_per_second": 6.665, |
|
"step": 88500 |
|
}, |
|
{ |
|
"epoch": 8.21, |
|
"learning_rate": 3.810333333333333e-06, |
|
"loss": 3.3902, |
|
"step": 88600 |
|
}, |
|
{ |
|
"epoch": 8.22, |
|
"learning_rate": 3.7770000000000004e-06, |
|
"loss": 3.3889, |
|
"step": 88700 |
|
}, |
|
{ |
|
"epoch": 8.23, |
|
"learning_rate": 3.743666666666667e-06, |
|
"loss": 3.3736, |
|
"step": 88800 |
|
}, |
|
{ |
|
"epoch": 8.24, |
|
"learning_rate": 3.7103333333333333e-06, |
|
"loss": 3.3951, |
|
"step": 88900 |
|
}, |
|
{ |
|
"epoch": 8.25, |
|
"learning_rate": 3.677e-06, |
|
"loss": 3.3807, |
|
"step": 89000 |
|
}, |
|
{ |
|
"epoch": 8.25, |
|
"eval_loss": 3.5578765869140625, |
|
"eval_runtime": 23.792, |
|
"eval_samples_per_second": 106.002, |
|
"eval_steps_per_second": 6.641, |
|
"step": 89000 |
|
}, |
|
{ |
|
"epoch": 8.26, |
|
"learning_rate": 3.644e-06, |
|
"loss": 3.3969, |
|
"step": 89100 |
|
}, |
|
{ |
|
"epoch": 8.27, |
|
"learning_rate": 3.6106666666666666e-06, |
|
"loss": 3.3845, |
|
"step": 89200 |
|
}, |
|
{ |
|
"epoch": 8.28, |
|
"learning_rate": 3.5773333333333334e-06, |
|
"loss": 3.3756, |
|
"step": 89300 |
|
}, |
|
{ |
|
"epoch": 8.29, |
|
"learning_rate": 3.5440000000000003e-06, |
|
"loss": 3.3856, |
|
"step": 89400 |
|
}, |
|
{ |
|
"epoch": 8.3, |
|
"learning_rate": 3.5106666666666667e-06, |
|
"loss": 3.3842, |
|
"step": 89500 |
|
}, |
|
{ |
|
"epoch": 8.3, |
|
"eval_loss": 3.558271646499634, |
|
"eval_runtime": 23.788, |
|
"eval_samples_per_second": 106.02, |
|
"eval_steps_per_second": 6.642, |
|
"step": 89500 |
|
}, |
|
{ |
|
"epoch": 8.31, |
|
"learning_rate": 3.4773333333333336e-06, |
|
"loss": 3.3895, |
|
"step": 89600 |
|
}, |
|
{ |
|
"epoch": 8.31, |
|
"learning_rate": 3.444e-06, |
|
"loss": 3.4004, |
|
"step": 89700 |
|
}, |
|
{ |
|
"epoch": 8.32, |
|
"learning_rate": 3.410666666666667e-06, |
|
"loss": 3.3814, |
|
"step": 89800 |
|
}, |
|
{ |
|
"epoch": 8.33, |
|
"learning_rate": 3.3773333333333332e-06, |
|
"loss": 3.3887, |
|
"step": 89900 |
|
}, |
|
{ |
|
"epoch": 8.34, |
|
"learning_rate": 3.344e-06, |
|
"loss": 3.3809, |
|
"step": 90000 |
|
}, |
|
{ |
|
"epoch": 8.34, |
|
"eval_loss": 3.5595808029174805, |
|
"eval_runtime": 23.7777, |
|
"eval_samples_per_second": 106.066, |
|
"eval_steps_per_second": 6.645, |
|
"step": 90000 |
|
}, |
|
{ |
|
"epoch": 8.35, |
|
"learning_rate": 3.3106666666666665e-06, |
|
"loss": 3.3975, |
|
"step": 90100 |
|
}, |
|
{ |
|
"epoch": 8.36, |
|
"learning_rate": 3.2773333333333338e-06, |
|
"loss": 3.4037, |
|
"step": 90200 |
|
}, |
|
{ |
|
"epoch": 8.37, |
|
"learning_rate": 3.244e-06, |
|
"loss": 3.4035, |
|
"step": 90300 |
|
}, |
|
{ |
|
"epoch": 8.38, |
|
"learning_rate": 3.210666666666667e-06, |
|
"loss": 3.4036, |
|
"step": 90400 |
|
}, |
|
{ |
|
"epoch": 8.39, |
|
"learning_rate": 3.1773333333333335e-06, |
|
"loss": 3.4033, |
|
"step": 90500 |
|
}, |
|
{ |
|
"epoch": 8.39, |
|
"eval_loss": 3.55897855758667, |
|
"eval_runtime": 23.7836, |
|
"eval_samples_per_second": 106.039, |
|
"eval_steps_per_second": 6.643, |
|
"step": 90500 |
|
}, |
|
{ |
|
"epoch": 8.4, |
|
"learning_rate": 3.1440000000000003e-06, |
|
"loss": 3.4154, |
|
"step": 90600 |
|
}, |
|
{ |
|
"epoch": 8.41, |
|
"learning_rate": 3.1106666666666667e-06, |
|
"loss": 3.3953, |
|
"step": 90700 |
|
}, |
|
{ |
|
"epoch": 8.42, |
|
"learning_rate": 3.0773333333333336e-06, |
|
"loss": 3.3951, |
|
"step": 90800 |
|
}, |
|
{ |
|
"epoch": 8.43, |
|
"learning_rate": 3.044e-06, |
|
"loss": 3.3892, |
|
"step": 90900 |
|
}, |
|
{ |
|
"epoch": 8.44, |
|
"learning_rate": 3.010666666666667e-06, |
|
"loss": 3.4156, |
|
"step": 91000 |
|
}, |
|
{ |
|
"epoch": 8.44, |
|
"eval_loss": 3.5576674938201904, |
|
"eval_runtime": 23.7762, |
|
"eval_samples_per_second": 106.072, |
|
"eval_steps_per_second": 6.645, |
|
"step": 91000 |
|
}, |
|
{ |
|
"epoch": 8.44, |
|
"learning_rate": 2.9773333333333333e-06, |
|
"loss": 3.4082, |
|
"step": 91100 |
|
}, |
|
{ |
|
"epoch": 8.45, |
|
"learning_rate": 2.9443333333333337e-06, |
|
"loss": 3.3943, |
|
"step": 91200 |
|
}, |
|
{ |
|
"epoch": 8.46, |
|
"learning_rate": 2.911e-06, |
|
"loss": 3.3896, |
|
"step": 91300 |
|
}, |
|
{ |
|
"epoch": 8.47, |
|
"learning_rate": 2.877666666666667e-06, |
|
"loss": 3.415, |
|
"step": 91400 |
|
}, |
|
{ |
|
"epoch": 8.48, |
|
"learning_rate": 2.8443333333333334e-06, |
|
"loss": 3.3927, |
|
"step": 91500 |
|
}, |
|
{ |
|
"epoch": 8.48, |
|
"eval_loss": 3.558485269546509, |
|
"eval_runtime": 23.7779, |
|
"eval_samples_per_second": 106.065, |
|
"eval_steps_per_second": 6.645, |
|
"step": 91500 |
|
}, |
|
{ |
|
"epoch": 8.49, |
|
"learning_rate": 2.8110000000000003e-06, |
|
"loss": 3.3887, |
|
"step": 91600 |
|
}, |
|
{ |
|
"epoch": 8.5, |
|
"learning_rate": 2.7776666666666667e-06, |
|
"loss": 3.3867, |
|
"step": 91700 |
|
}, |
|
{ |
|
"epoch": 8.51, |
|
"learning_rate": 2.7443333333333335e-06, |
|
"loss": 3.3735, |
|
"step": 91800 |
|
}, |
|
{ |
|
"epoch": 8.52, |
|
"learning_rate": 2.711e-06, |
|
"loss": 3.3878, |
|
"step": 91900 |
|
}, |
|
{ |
|
"epoch": 8.53, |
|
"learning_rate": 2.677666666666667e-06, |
|
"loss": 3.4041, |
|
"step": 92000 |
|
}, |
|
{ |
|
"epoch": 8.53, |
|
"eval_loss": 3.5595757961273193, |
|
"eval_runtime": 23.7777, |
|
"eval_samples_per_second": 106.066, |
|
"eval_steps_per_second": 6.645, |
|
"step": 92000 |
|
}, |
|
{ |
|
"epoch": 8.54, |
|
"learning_rate": 2.6443333333333332e-06, |
|
"loss": 3.4155, |
|
"step": 92100 |
|
}, |
|
{ |
|
"epoch": 8.55, |
|
"learning_rate": 2.611e-06, |
|
"loss": 3.379, |
|
"step": 92200 |
|
}, |
|
{ |
|
"epoch": 8.56, |
|
"learning_rate": 2.5776666666666665e-06, |
|
"loss": 3.3913, |
|
"step": 92300 |
|
}, |
|
{ |
|
"epoch": 8.57, |
|
"learning_rate": 2.5443333333333333e-06, |
|
"loss": 3.3749, |
|
"step": 92400 |
|
}, |
|
{ |
|
"epoch": 8.57, |
|
"learning_rate": 2.5109999999999998e-06, |
|
"loss": 3.4006, |
|
"step": 92500 |
|
}, |
|
{ |
|
"epoch": 8.57, |
|
"eval_loss": 3.5600292682647705, |
|
"eval_runtime": 23.781, |
|
"eval_samples_per_second": 106.051, |
|
"eval_steps_per_second": 6.644, |
|
"step": 92500 |
|
}, |
|
{ |
|
"epoch": 8.58, |
|
"learning_rate": 2.477666666666667e-06, |
|
"loss": 3.4026, |
|
"step": 92600 |
|
}, |
|
{ |
|
"epoch": 8.59, |
|
"learning_rate": 2.4443333333333334e-06, |
|
"loss": 3.4121, |
|
"step": 92700 |
|
}, |
|
{ |
|
"epoch": 8.6, |
|
"learning_rate": 2.4110000000000003e-06, |
|
"loss": 3.3956, |
|
"step": 92800 |
|
}, |
|
{ |
|
"epoch": 8.61, |
|
"learning_rate": 2.3776666666666667e-06, |
|
"loss": 3.4069, |
|
"step": 92900 |
|
}, |
|
{ |
|
"epoch": 8.62, |
|
"learning_rate": 2.3446666666666668e-06, |
|
"loss": 3.4007, |
|
"step": 93000 |
|
}, |
|
{ |
|
"epoch": 8.62, |
|
"eval_loss": 3.5577518939971924, |
|
"eval_runtime": 23.7878, |
|
"eval_samples_per_second": 106.021, |
|
"eval_steps_per_second": 6.642, |
|
"step": 93000 |
|
}, |
|
{ |
|
"epoch": 8.63, |
|
"learning_rate": 2.311333333333333e-06, |
|
"loss": 3.3887, |
|
"step": 93100 |
|
}, |
|
{ |
|
"epoch": 8.64, |
|
"learning_rate": 2.278e-06, |
|
"loss": 3.3724, |
|
"step": 93200 |
|
}, |
|
{ |
|
"epoch": 8.65, |
|
"learning_rate": 2.2446666666666665e-06, |
|
"loss": 3.3821, |
|
"step": 93300 |
|
}, |
|
{ |
|
"epoch": 8.66, |
|
"learning_rate": 2.2113333333333337e-06, |
|
"loss": 3.4197, |
|
"step": 93400 |
|
}, |
|
{ |
|
"epoch": 8.67, |
|
"learning_rate": 2.178e-06, |
|
"loss": 3.4047, |
|
"step": 93500 |
|
}, |
|
{ |
|
"epoch": 8.67, |
|
"eval_loss": 3.557192087173462, |
|
"eval_runtime": 23.7805, |
|
"eval_samples_per_second": 106.053, |
|
"eval_steps_per_second": 6.644, |
|
"step": 93500 |
|
}, |
|
{ |
|
"epoch": 8.68, |
|
"learning_rate": 2.144666666666667e-06, |
|
"loss": 3.4009, |
|
"step": 93600 |
|
}, |
|
{ |
|
"epoch": 8.69, |
|
"learning_rate": 2.1113333333333334e-06, |
|
"loss": 3.3817, |
|
"step": 93700 |
|
}, |
|
{ |
|
"epoch": 8.69, |
|
"learning_rate": 2.0780000000000003e-06, |
|
"loss": 3.371, |
|
"step": 93800 |
|
}, |
|
{ |
|
"epoch": 8.7, |
|
"learning_rate": 2.0446666666666667e-06, |
|
"loss": 3.3711, |
|
"step": 93900 |
|
}, |
|
{ |
|
"epoch": 8.71, |
|
"learning_rate": 2.0113333333333335e-06, |
|
"loss": 3.3904, |
|
"step": 94000 |
|
}, |
|
{ |
|
"epoch": 8.71, |
|
"eval_loss": 3.557133913040161, |
|
"eval_runtime": 23.7814, |
|
"eval_samples_per_second": 106.049, |
|
"eval_steps_per_second": 6.644, |
|
"step": 94000 |
|
}, |
|
{ |
|
"epoch": 8.72, |
|
"learning_rate": 1.978e-06, |
|
"loss": 3.4108, |
|
"step": 94100 |
|
}, |
|
{ |
|
"epoch": 8.73, |
|
"learning_rate": 1.944666666666667e-06, |
|
"loss": 3.4221, |
|
"step": 94200 |
|
}, |
|
{ |
|
"epoch": 8.74, |
|
"learning_rate": 1.9113333333333332e-06, |
|
"loss": 3.3815, |
|
"step": 94300 |
|
}, |
|
{ |
|
"epoch": 8.75, |
|
"learning_rate": 1.878e-06, |
|
"loss": 3.3923, |
|
"step": 94400 |
|
}, |
|
{ |
|
"epoch": 8.76, |
|
"learning_rate": 1.8446666666666667e-06, |
|
"loss": 3.3888, |
|
"step": 94500 |
|
}, |
|
{ |
|
"epoch": 8.76, |
|
"eval_loss": 3.558104991912842, |
|
"eval_runtime": 23.7899, |
|
"eval_samples_per_second": 106.011, |
|
"eval_steps_per_second": 6.641, |
|
"step": 94500 |
|
}, |
|
{ |
|
"epoch": 8.77, |
|
"learning_rate": 1.8113333333333335e-06, |
|
"loss": 3.4093, |
|
"step": 94600 |
|
}, |
|
{ |
|
"epoch": 8.78, |
|
"learning_rate": 1.7780000000000002e-06, |
|
"loss": 3.4228, |
|
"step": 94700 |
|
}, |
|
{ |
|
"epoch": 8.79, |
|
"learning_rate": 1.7446666666666668e-06, |
|
"loss": 3.4168, |
|
"step": 94800 |
|
}, |
|
{ |
|
"epoch": 8.8, |
|
"learning_rate": 1.7113333333333334e-06, |
|
"loss": 3.3995, |
|
"step": 94900 |
|
}, |
|
{ |
|
"epoch": 8.81, |
|
"learning_rate": 1.678e-06, |
|
"loss": 3.3876, |
|
"step": 95000 |
|
}, |
|
{ |
|
"epoch": 8.81, |
|
"eval_loss": 3.55720591545105, |
|
"eval_runtime": 23.7866, |
|
"eval_samples_per_second": 106.026, |
|
"eval_steps_per_second": 6.642, |
|
"step": 95000 |
|
}, |
|
{ |
|
"epoch": 8.82, |
|
"learning_rate": 1.6446666666666667e-06, |
|
"loss": 3.3805, |
|
"step": 95100 |
|
}, |
|
{ |
|
"epoch": 8.82, |
|
"learning_rate": 1.6113333333333333e-06, |
|
"loss": 3.3955, |
|
"step": 95200 |
|
}, |
|
{ |
|
"epoch": 8.83, |
|
"learning_rate": 1.578e-06, |
|
"loss": 3.391, |
|
"step": 95300 |
|
}, |
|
{ |
|
"epoch": 8.84, |
|
"learning_rate": 1.5446666666666668e-06, |
|
"loss": 3.401, |
|
"step": 95400 |
|
}, |
|
{ |
|
"epoch": 8.85, |
|
"learning_rate": 1.5113333333333334e-06, |
|
"loss": 3.3872, |
|
"step": 95500 |
|
}, |
|
{ |
|
"epoch": 8.85, |
|
"eval_loss": 3.5574591159820557, |
|
"eval_runtime": 23.7708, |
|
"eval_samples_per_second": 106.096, |
|
"eval_steps_per_second": 6.647, |
|
"step": 95500 |
|
}, |
|
{ |
|
"epoch": 8.86, |
|
"learning_rate": 1.478e-06, |
|
"loss": 3.4022, |
|
"step": 95600 |
|
}, |
|
{ |
|
"epoch": 8.87, |
|
"learning_rate": 1.4446666666666667e-06, |
|
"loss": 3.407, |
|
"step": 95700 |
|
}, |
|
{ |
|
"epoch": 8.88, |
|
"learning_rate": 1.4113333333333333e-06, |
|
"loss": 3.3884, |
|
"step": 95800 |
|
}, |
|
{ |
|
"epoch": 8.89, |
|
"learning_rate": 1.378e-06, |
|
"loss": 3.3934, |
|
"step": 95900 |
|
}, |
|
{ |
|
"epoch": 8.9, |
|
"learning_rate": 1.3446666666666666e-06, |
|
"loss": 3.3753, |
|
"step": 96000 |
|
}, |
|
{ |
|
"epoch": 8.9, |
|
"eval_loss": 3.5576891899108887, |
|
"eval_runtime": 23.8007, |
|
"eval_samples_per_second": 105.963, |
|
"eval_steps_per_second": 6.638, |
|
"step": 96000 |
|
}, |
|
{ |
|
"epoch": 8.91, |
|
"learning_rate": 1.3113333333333332e-06, |
|
"loss": 3.39, |
|
"step": 96100 |
|
}, |
|
{ |
|
"epoch": 8.92, |
|
"learning_rate": 1.278e-06, |
|
"loss": 3.418, |
|
"step": 96200 |
|
}, |
|
{ |
|
"epoch": 8.93, |
|
"learning_rate": 1.2446666666666667e-06, |
|
"loss": 3.3898, |
|
"step": 96300 |
|
}, |
|
{ |
|
"epoch": 8.94, |
|
"learning_rate": 1.2113333333333334e-06, |
|
"loss": 3.3955, |
|
"step": 96400 |
|
}, |
|
{ |
|
"epoch": 8.95, |
|
"learning_rate": 1.178e-06, |
|
"loss": 3.3961, |
|
"step": 96500 |
|
}, |
|
{ |
|
"epoch": 8.95, |
|
"eval_loss": 3.5567543506622314, |
|
"eval_runtime": 23.775, |
|
"eval_samples_per_second": 106.078, |
|
"eval_steps_per_second": 6.646, |
|
"step": 96500 |
|
}, |
|
{ |
|
"epoch": 8.95, |
|
"learning_rate": 1.1446666666666666e-06, |
|
"loss": 3.3927, |
|
"step": 96600 |
|
}, |
|
{ |
|
"epoch": 8.96, |
|
"learning_rate": 1.1113333333333333e-06, |
|
"loss": 3.3778, |
|
"step": 96700 |
|
}, |
|
{ |
|
"epoch": 8.97, |
|
"learning_rate": 1.0779999999999999e-06, |
|
"loss": 3.4238, |
|
"step": 96800 |
|
}, |
|
{ |
|
"epoch": 8.98, |
|
"learning_rate": 1.0446666666666665e-06, |
|
"loss": 3.3893, |
|
"step": 96900 |
|
}, |
|
{ |
|
"epoch": 8.99, |
|
"learning_rate": 1.0113333333333334e-06, |
|
"loss": 3.4131, |
|
"step": 97000 |
|
}, |
|
{ |
|
"epoch": 8.99, |
|
"eval_loss": 3.55790376663208, |
|
"eval_runtime": 23.774, |
|
"eval_samples_per_second": 106.082, |
|
"eval_steps_per_second": 6.646, |
|
"step": 97000 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"learning_rate": 9.783333333333334e-07, |
|
"loss": 3.4256, |
|
"step": 97100 |
|
}, |
|
{ |
|
"epoch": 9.01, |
|
"learning_rate": 9.450000000000001e-07, |
|
"loss": 3.3537, |
|
"step": 97200 |
|
}, |
|
{ |
|
"epoch": 9.02, |
|
"learning_rate": 9.116666666666667e-07, |
|
"loss": 3.3696, |
|
"step": 97300 |
|
}, |
|
{ |
|
"epoch": 9.03, |
|
"learning_rate": 8.783333333333333e-07, |
|
"loss": 3.3778, |
|
"step": 97400 |
|
}, |
|
{ |
|
"epoch": 9.04, |
|
"learning_rate": 8.453333333333334e-07, |
|
"loss": 3.3647, |
|
"step": 97500 |
|
}, |
|
{ |
|
"epoch": 9.04, |
|
"eval_loss": 3.557291269302368, |
|
"eval_runtime": 23.7854, |
|
"eval_samples_per_second": 106.032, |
|
"eval_steps_per_second": 6.643, |
|
"step": 97500 |
|
}, |
|
{ |
|
"epoch": 9.05, |
|
"learning_rate": 8.12e-07, |
|
"loss": 3.3852, |
|
"step": 97600 |
|
}, |
|
{ |
|
"epoch": 9.06, |
|
"learning_rate": 7.786666666666667e-07, |
|
"loss": 3.4056, |
|
"step": 97700 |
|
}, |
|
{ |
|
"epoch": 9.07, |
|
"learning_rate": 7.453333333333333e-07, |
|
"loss": 3.3955, |
|
"step": 97800 |
|
}, |
|
{ |
|
"epoch": 9.07, |
|
"learning_rate": 7.12e-07, |
|
"loss": 3.4157, |
|
"step": 97900 |
|
}, |
|
{ |
|
"epoch": 9.08, |
|
"learning_rate": 6.786666666666667e-07, |
|
"loss": 3.3792, |
|
"step": 98000 |
|
}, |
|
{ |
|
"epoch": 9.08, |
|
"eval_loss": 3.557647466659546, |
|
"eval_runtime": 23.7799, |
|
"eval_samples_per_second": 106.056, |
|
"eval_steps_per_second": 6.644, |
|
"step": 98000 |
|
}, |
|
{ |
|
"epoch": 9.09, |
|
"learning_rate": 6.453333333333334e-07, |
|
"loss": 3.3977, |
|
"step": 98100 |
|
}, |
|
{ |
|
"epoch": 9.1, |
|
"learning_rate": 6.12e-07, |
|
"loss": 3.3818, |
|
"step": 98200 |
|
}, |
|
{ |
|
"epoch": 9.11, |
|
"learning_rate": 5.786666666666668e-07, |
|
"loss": 3.3923, |
|
"step": 98300 |
|
}, |
|
{ |
|
"epoch": 9.12, |
|
"learning_rate": 5.453333333333334e-07, |
|
"loss": 3.3855, |
|
"step": 98400 |
|
}, |
|
{ |
|
"epoch": 9.13, |
|
"learning_rate": 5.123333333333334e-07, |
|
"loss": 3.3755, |
|
"step": 98500 |
|
}, |
|
{ |
|
"epoch": 9.13, |
|
"eval_loss": 3.55747389793396, |
|
"eval_runtime": 23.7811, |
|
"eval_samples_per_second": 106.051, |
|
"eval_steps_per_second": 6.644, |
|
"step": 98500 |
|
}, |
|
{ |
|
"epoch": 9.14, |
|
"learning_rate": 4.79e-07, |
|
"loss": 3.378, |
|
"step": 98600 |
|
}, |
|
{ |
|
"epoch": 9.15, |
|
"learning_rate": 4.456666666666667e-07, |
|
"loss": 3.3893, |
|
"step": 98700 |
|
}, |
|
{ |
|
"epoch": 9.16, |
|
"learning_rate": 4.1233333333333336e-07, |
|
"loss": 3.387, |
|
"step": 98800 |
|
}, |
|
{ |
|
"epoch": 9.17, |
|
"learning_rate": 3.79e-07, |
|
"loss": 3.3539, |
|
"step": 98900 |
|
}, |
|
{ |
|
"epoch": 9.18, |
|
"learning_rate": 3.456666666666667e-07, |
|
"loss": 3.3981, |
|
"step": 99000 |
|
}, |
|
{ |
|
"epoch": 9.18, |
|
"eval_loss": 3.557342290878296, |
|
"eval_runtime": 23.7655, |
|
"eval_samples_per_second": 106.12, |
|
"eval_steps_per_second": 6.648, |
|
"step": 99000 |
|
}, |
|
{ |
|
"epoch": 9.19, |
|
"learning_rate": 3.1266666666666663e-07, |
|
"loss": 3.3796, |
|
"step": 99100 |
|
}, |
|
{ |
|
"epoch": 9.2, |
|
"learning_rate": 2.793333333333333e-07, |
|
"loss": 3.3579, |
|
"step": 99200 |
|
}, |
|
{ |
|
"epoch": 9.2, |
|
"learning_rate": 2.46e-07, |
|
"loss": 3.3742, |
|
"step": 99300 |
|
}, |
|
{ |
|
"epoch": 9.21, |
|
"learning_rate": 2.1266666666666667e-07, |
|
"loss": 3.3831, |
|
"step": 99400 |
|
}, |
|
{ |
|
"epoch": 9.22, |
|
"learning_rate": 1.7933333333333335e-07, |
|
"loss": 3.3914, |
|
"step": 99500 |
|
}, |
|
{ |
|
"epoch": 9.22, |
|
"eval_loss": 3.5572941303253174, |
|
"eval_runtime": 23.7886, |
|
"eval_samples_per_second": 106.017, |
|
"eval_steps_per_second": 6.642, |
|
"step": 99500 |
|
}, |
|
{ |
|
"epoch": 9.23, |
|
"learning_rate": 1.46e-07, |
|
"loss": 3.4, |
|
"step": 99600 |
|
}, |
|
{ |
|
"epoch": 9.24, |
|
"learning_rate": 1.1266666666666667e-07, |
|
"loss": 3.3892, |
|
"step": 99700 |
|
}, |
|
{ |
|
"epoch": 9.25, |
|
"learning_rate": 7.933333333333334e-08, |
|
"loss": 3.3746, |
|
"step": 99800 |
|
}, |
|
{ |
|
"epoch": 9.26, |
|
"learning_rate": 4.6e-08, |
|
"loss": 3.3924, |
|
"step": 99900 |
|
}, |
|
{ |
|
"epoch": 9.27, |
|
"learning_rate": 1.2666666666666668e-08, |
|
"loss": 3.4136, |
|
"step": 100000 |
|
}, |
|
{ |
|
"epoch": 9.27, |
|
"eval_loss": 3.557504177093506, |
|
"eval_runtime": 23.7953, |
|
"eval_samples_per_second": 105.987, |
|
"eval_steps_per_second": 6.64, |
|
"step": 100000 |
|
}, |
|
{ |
|
"epoch": 9.27, |
|
"step": 100000, |
|
"total_flos": 2.2851507373589135e+18, |
|
"train_loss": 3.524176220359802, |
|
"train_runtime": 67760.9425, |
|
"train_samples_per_second": 23.612, |
|
"train_steps_per_second": 1.476 |
|
} |
|
], |
|
"max_steps": 100000, |
|
"num_train_epochs": 10, |
|
"total_flos": 2.2851507373589135e+18, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|