|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 0.3413333333333333, |
|
"eval_steps": 500, |
|
"global_step": 40, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008533333333333334, |
|
"grad_norm": 100.21848203113535, |
|
"learning_rate": 0.0, |
|
"loss": 7.1962, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.017066666666666667, |
|
"grad_norm": 96.43006188910957, |
|
"learning_rate": 3.0102999566398115e-06, |
|
"loss": 6.9414, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.0256, |
|
"grad_norm": 97.35803466618715, |
|
"learning_rate": 4.771212547196624e-06, |
|
"loss": 7.0102, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.034133333333333335, |
|
"grad_norm": 95.14837816372646, |
|
"learning_rate": 6.020599913279623e-06, |
|
"loss": 6.5295, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 91.76544275692784, |
|
"learning_rate": 6.989700043360187e-06, |
|
"loss": 6.4806, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.0512, |
|
"grad_norm": 84.4494318688335, |
|
"learning_rate": 7.781512503836437e-06, |
|
"loss": 6.4194, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.05973333333333333, |
|
"grad_norm": 71.37977490595638, |
|
"learning_rate": 8.450980400142568e-06, |
|
"loss": 5.4953, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.06826666666666667, |
|
"grad_norm": 49.31153456754566, |
|
"learning_rate": 9.030899869919434e-06, |
|
"loss": 5.4123, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.0768, |
|
"grad_norm": 20.37296364560341, |
|
"learning_rate": 9.542425094393249e-06, |
|
"loss": 5.2334, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 7.968467079076881, |
|
"learning_rate": 9.999999999999999e-06, |
|
"loss": 5.0282, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.09386666666666667, |
|
"grad_norm": 3.559446532055649, |
|
"learning_rate": 1.041392685158225e-05, |
|
"loss": 4.612, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.1024, |
|
"grad_norm": 3.5528846947995674, |
|
"learning_rate": 1.0791812460476248e-05, |
|
"loss": 4.9475, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.11093333333333333, |
|
"grad_norm": 3.541968897471334, |
|
"learning_rate": 1.1139433523068365e-05, |
|
"loss": 4.2777, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.11946666666666667, |
|
"grad_norm": 3.54718070036198, |
|
"learning_rate": 1.1461280356782378e-05, |
|
"loss": 4.3507, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 3.8632334830606747, |
|
"learning_rate": 1.1760912590556813e-05, |
|
"loss": 4.5364, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.13653333333333334, |
|
"grad_norm": 3.6637424744054004, |
|
"learning_rate": 1.2041199826559246e-05, |
|
"loss": 3.9672, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.14506666666666668, |
|
"grad_norm": 3.919802904818311, |
|
"learning_rate": 1.230448921378274e-05, |
|
"loss": 4.0618, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.1536, |
|
"grad_norm": 4.71904950738746, |
|
"learning_rate": 1.2552725051033058e-05, |
|
"loss": 4.6656, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.16213333333333332, |
|
"grad_norm": 4.6656317698690835, |
|
"learning_rate": 1.2787536009528288e-05, |
|
"loss": 4.1131, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 5.145138692367417, |
|
"learning_rate": 1.301029995663981e-05, |
|
"loss": 4.0989, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.1792, |
|
"grad_norm": 5.923538014759818, |
|
"learning_rate": 1.3222192947339192e-05, |
|
"loss": 4.4991, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.18773333333333334, |
|
"grad_norm": 5.941056962941364, |
|
"learning_rate": 1.3424226808222062e-05, |
|
"loss": 4.0836, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.19626666666666667, |
|
"grad_norm": 6.171026012117947, |
|
"learning_rate": 1.3617278360175927e-05, |
|
"loss": 3.6861, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.2048, |
|
"grad_norm": 7.130542138930838, |
|
"learning_rate": 1.380211241711606e-05, |
|
"loss": 4.0958, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 7.328837606110418, |
|
"learning_rate": 1.3979400086720374e-05, |
|
"loss": 3.9524, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.22186666666666666, |
|
"grad_norm": 6.923489005711429, |
|
"learning_rate": 1.4149733479708178e-05, |
|
"loss": 3.6062, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.2304, |
|
"grad_norm": 6.409498926059221, |
|
"learning_rate": 1.4313637641589872e-05, |
|
"loss": 3.2034, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.23893333333333333, |
|
"grad_norm": 5.781628405584682, |
|
"learning_rate": 1.4471580313422191e-05, |
|
"loss": 2.8158, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.24746666666666667, |
|
"grad_norm": 6.2927590068243315, |
|
"learning_rate": 1.4623979978989559e-05, |
|
"loss": 2.9803, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 6.103844678630006, |
|
"learning_rate": 1.4771212547196623e-05, |
|
"loss": 2.847, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.26453333333333334, |
|
"grad_norm": 7.656341925867144, |
|
"learning_rate": 1.4913616938342726e-05, |
|
"loss": 3.0907, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.2730666666666667, |
|
"grad_norm": 6.324242877501844, |
|
"learning_rate": 1.5051499783199059e-05, |
|
"loss": 2.3467, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.2816, |
|
"grad_norm": 7.606313101162739, |
|
"learning_rate": 1.5185139398778874e-05, |
|
"loss": 2.5292, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.29013333333333335, |
|
"grad_norm": 8.553792493849265, |
|
"learning_rate": 1.531478917042255e-05, |
|
"loss": 2.4547, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.2986666666666667, |
|
"grad_norm": 8.483368703272543, |
|
"learning_rate": 1.5440680443502753e-05, |
|
"loss": 2.1956, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.3072, |
|
"grad_norm": 8.364739352838077, |
|
"learning_rate": 1.5563025007672873e-05, |
|
"loss": 1.8552, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.3157333333333333, |
|
"grad_norm": 9.37663682000104, |
|
"learning_rate": 1.5682017240669948e-05, |
|
"loss": 1.9228, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.32426666666666665, |
|
"grad_norm": 9.823047193440066, |
|
"learning_rate": 1.57978359661681e-05, |
|
"loss": 1.7033, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.3328, |
|
"grad_norm": 9.692618512955894, |
|
"learning_rate": 1.591064607026499e-05, |
|
"loss": 1.3768, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.3413333333333333, |
|
"grad_norm": 9.08889021911031, |
|
"learning_rate": 1.6020599913279622e-05, |
|
"loss": 1.3015, |
|
"step": 40 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 351, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 20, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 5.708931636490404e+17, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|