minimini99's picture
Training in progress, step 345
cde398a verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 10.0,
"eval_steps": 500,
"global_step": 150,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.06666666666666667,
"grad_norm": 3.4085312483246724,
"learning_rate": 4.000000000000001e-06,
"loss": 1.4028,
"step": 1
},
{
"epoch": 0.13333333333333333,
"grad_norm": 4.666705759671598,
"learning_rate": 8.000000000000001e-06,
"loss": 1.2916,
"step": 2
},
{
"epoch": 0.2,
"grad_norm": 3.871080407186316,
"learning_rate": 1.2e-05,
"loss": 1.3833,
"step": 3
},
{
"epoch": 0.26666666666666666,
"grad_norm": 2.7124590679450193,
"learning_rate": 1.6000000000000003e-05,
"loss": 0.9761,
"step": 4
},
{
"epoch": 0.3333333333333333,
"grad_norm": 2.071960200602384,
"learning_rate": 2e-05,
"loss": 1.3587,
"step": 5
},
{
"epoch": 0.4,
"grad_norm": 1.648098466658743,
"learning_rate": 1.999765298018484e-05,
"loss": 0.8337,
"step": 6
},
{
"epoch": 0.4666666666666667,
"grad_norm": 1.6253968845904598,
"learning_rate": 1.999061302243977e-05,
"loss": 1.0941,
"step": 7
},
{
"epoch": 0.5333333333333333,
"grad_norm": 1.4301494839270958,
"learning_rate": 1.9978883431348845e-05,
"loss": 0.959,
"step": 8
},
{
"epoch": 0.6,
"grad_norm": 1.5578987331272605,
"learning_rate": 1.9962469712828613e-05,
"loss": 1.0682,
"step": 9
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.4627247576612574,
"learning_rate": 1.9941379571543597e-05,
"loss": 1.1677,
"step": 10
},
{
"epoch": 0.7333333333333333,
"grad_norm": 1.6114807558199653,
"learning_rate": 1.9915622907289695e-05,
"loss": 1.1538,
"step": 11
},
{
"epoch": 0.8,
"grad_norm": 1.2878501917792624,
"learning_rate": 1.9885211810347185e-05,
"loss": 1.1649,
"step": 12
},
{
"epoch": 0.8666666666666667,
"grad_norm": 1.6334765738880663,
"learning_rate": 1.9850160555805485e-05,
"loss": 0.9951,
"step": 13
},
{
"epoch": 0.9333333333333333,
"grad_norm": 1.628821939921328,
"learning_rate": 1.981048559686239e-05,
"loss": 0.9233,
"step": 14
},
{
"epoch": 1.0,
"grad_norm": 1.339302435711646,
"learning_rate": 1.976620555710087e-05,
"loss": 1.0353,
"step": 15
},
{
"epoch": 1.0666666666666667,
"grad_norm": 1.1556672707686442,
"learning_rate": 1.9717341221747056e-05,
"loss": 0.9605,
"step": 16
},
{
"epoch": 1.1333333333333333,
"grad_norm": 1.2387154465086059,
"learning_rate": 1.9663915527913628e-05,
"loss": 1.1088,
"step": 17
},
{
"epoch": 1.2,
"grad_norm": 1.1394015037618388,
"learning_rate": 1.9605953553832987e-05,
"loss": 1.1281,
"step": 18
},
{
"epoch": 1.2666666666666666,
"grad_norm": 1.0626133768253427,
"learning_rate": 1.9543482507085484e-05,
"loss": 1.0368,
"step": 19
},
{
"epoch": 1.3333333333333333,
"grad_norm": 1.391951038364559,
"learning_rate": 1.9476531711828027e-05,
"loss": 1.0803,
"step": 20
},
{
"epoch": 1.4,
"grad_norm": 1.2604998479257097,
"learning_rate": 1.940513259502924e-05,
"loss": 1.0545,
"step": 21
},
{
"epoch": 1.4666666666666668,
"grad_norm": 1.3683100627781444,
"learning_rate": 1.932931867171751e-05,
"loss": 1.0207,
"step": 22
},
{
"epoch": 1.5333333333333332,
"grad_norm": 1.0663814943522483,
"learning_rate": 1.924912552924889e-05,
"loss": 0.9533,
"step": 23
},
{
"epoch": 1.6,
"grad_norm": 1.064831041129997,
"learning_rate": 1.9164590810602262e-05,
"loss": 0.8148,
"step": 24
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.9739867731832403,
"learning_rate": 1.9075754196709574e-05,
"loss": 0.9337,
"step": 25
},
{
"epoch": 1.7333333333333334,
"grad_norm": 1.2675282274463724,
"learning_rate": 1.8982657387829447e-05,
"loss": 1.0805,
"step": 26
},
{
"epoch": 1.8,
"grad_norm": 0.9372218377939878,
"learning_rate": 1.8885344083972912e-05,
"loss": 1.0695,
"step": 27
},
{
"epoch": 1.8666666666666667,
"grad_norm": 1.3431500053349323,
"learning_rate": 1.8783859964390466e-05,
"loss": 1.1591,
"step": 28
},
{
"epoch": 1.9333333333333333,
"grad_norm": 1.1202612444362305,
"learning_rate": 1.8678252666130016e-05,
"loss": 0.968,
"step": 29
},
{
"epoch": 2.0,
"grad_norm": 1.2260350955015997,
"learning_rate": 1.8568571761675893e-05,
"loss": 0.9043,
"step": 30
},
{
"epoch": 2.066666666666667,
"grad_norm": 1.0478158856201552,
"learning_rate": 1.845486873567932e-05,
"loss": 1.1587,
"step": 31
},
{
"epoch": 2.1333333333333333,
"grad_norm": 1.0874714452657954,
"learning_rate": 1.8337196960791305e-05,
"loss": 0.9252,
"step": 32
},
{
"epoch": 2.2,
"grad_norm": 0.9752649031044559,
"learning_rate": 1.8215611672609316e-05,
"loss": 1.0202,
"step": 33
},
{
"epoch": 2.2666666666666666,
"grad_norm": 1.0434763245427732,
"learning_rate": 1.8090169943749477e-05,
"loss": 0.996,
"step": 34
},
{
"epoch": 2.3333333333333335,
"grad_norm": 1.1379594366750487,
"learning_rate": 1.796093065705644e-05,
"loss": 0.9925,
"step": 35
},
{
"epoch": 2.4,
"grad_norm": 1.1948697336608844,
"learning_rate": 1.782795447796356e-05,
"loss": 1.2921,
"step": 36
},
{
"epoch": 2.466666666666667,
"grad_norm": 1.221446681124953,
"learning_rate": 1.769130382601629e-05,
"loss": 0.8618,
"step": 37
},
{
"epoch": 2.533333333333333,
"grad_norm": 1.0829408518691481,
"learning_rate": 1.755104284557221e-05,
"loss": 0.9958,
"step": 38
},
{
"epoch": 2.6,
"grad_norm": 1.1500016708742549,
"learning_rate": 1.7407237375691394e-05,
"loss": 0.9654,
"step": 39
},
{
"epoch": 2.6666666666666665,
"grad_norm": 1.2766994471456066,
"learning_rate": 1.725995491923131e-05,
"loss": 1.0478,
"step": 40
},
{
"epoch": 2.7333333333333334,
"grad_norm": 1.1725464918998885,
"learning_rate": 1.710926461116071e-05,
"loss": 0.8262,
"step": 41
},
{
"epoch": 2.8,
"grad_norm": 1.0893404581760975,
"learning_rate": 1.6955237186107387e-05,
"loss": 0.8965,
"step": 42
},
{
"epoch": 2.8666666666666667,
"grad_norm": 0.9166278938019341,
"learning_rate": 1.679794494515508e-05,
"loss": 0.9818,
"step": 43
},
{
"epoch": 2.9333333333333336,
"grad_norm": 1.0710933249027597,
"learning_rate": 1.6637461721905047e-05,
"loss": 0.952,
"step": 44
},
{
"epoch": 3.0,
"grad_norm": 1.1331761656207147,
"learning_rate": 1.647386284781828e-05,
"loss": 0.916,
"step": 45
},
{
"epoch": 3.066666666666667,
"grad_norm": 0.9564647379011718,
"learning_rate": 1.6307225116854623e-05,
"loss": 1.1324,
"step": 46
},
{
"epoch": 3.1333333333333333,
"grad_norm": 0.8318197021971842,
"learning_rate": 1.6137626749425377e-05,
"loss": 0.9577,
"step": 47
},
{
"epoch": 3.2,
"grad_norm": 1.248321661047559,
"learning_rate": 1.5965147355676344e-05,
"loss": 0.9331,
"step": 48
},
{
"epoch": 3.2666666666666666,
"grad_norm": 1.1222614201620278,
"learning_rate": 1.578986789811849e-05,
"loss": 0.845,
"step": 49
},
{
"epoch": 3.3333333333333335,
"grad_norm": 1.0274159778159633,
"learning_rate": 1.5611870653623826e-05,
"loss": 0.9643,
"step": 50
},
{
"epoch": 3.4,
"grad_norm": 1.2499948768241727,
"learning_rate": 1.543123917480433e-05,
"loss": 0.8808,
"step": 51
},
{
"epoch": 3.466666666666667,
"grad_norm": 1.0815573199440531,
"learning_rate": 1.5248058250792008e-05,
"loss": 0.8817,
"step": 52
},
{
"epoch": 3.533333333333333,
"grad_norm": 1.153929296287051,
"learning_rate": 1.506241386743854e-05,
"loss": 0.994,
"step": 53
},
{
"epoch": 3.6,
"grad_norm": 1.103492229784582,
"learning_rate": 1.4874393166953194e-05,
"loss": 0.8729,
"step": 54
},
{
"epoch": 3.6666666666666665,
"grad_norm": 1.2133497016696713,
"learning_rate": 1.4684084406997903e-05,
"loss": 1.1275,
"step": 55
},
{
"epoch": 3.7333333333333334,
"grad_norm": 1.3609462560361256,
"learning_rate": 1.4491576919258794e-05,
"loss": 1.1054,
"step": 56
},
{
"epoch": 3.8,
"grad_norm": 0.9886233265547686,
"learning_rate": 1.4296961067513519e-05,
"loss": 0.9743,
"step": 57
},
{
"epoch": 3.8666666666666667,
"grad_norm": 1.1745326799492681,
"learning_rate": 1.4100328205214161e-05,
"loss": 0.8838,
"step": 58
},
{
"epoch": 3.9333333333333336,
"grad_norm": 1.3390216614348462,
"learning_rate": 1.3901770632605546e-05,
"loss": 1.0468,
"step": 59
},
{
"epoch": 4.0,
"grad_norm": 1.014063659841383,
"learning_rate": 1.3701381553399147e-05,
"loss": 1.0688,
"step": 60
},
{
"epoch": 4.066666666666666,
"grad_norm": 1.2635366819058482,
"learning_rate": 1.3499255031022887e-05,
"loss": 0.8666,
"step": 61
},
{
"epoch": 4.133333333333334,
"grad_norm": 1.3025248294074614,
"learning_rate": 1.3295485944467405e-05,
"loss": 0.9334,
"step": 62
},
{
"epoch": 4.2,
"grad_norm": 0.9545362380710669,
"learning_rate": 1.3090169943749475e-05,
"loss": 0.9013,
"step": 63
},
{
"epoch": 4.266666666666667,
"grad_norm": 1.0710628345049782,
"learning_rate": 1.288340340501351e-05,
"loss": 0.9823,
"step": 64
},
{
"epoch": 4.333333333333333,
"grad_norm": 1.133254418294951,
"learning_rate": 1.2675283385292212e-05,
"loss": 1.0442,
"step": 65
},
{
"epoch": 4.4,
"grad_norm": 1.10114922731124,
"learning_rate": 1.2465907576947623e-05,
"loss": 0.913,
"step": 66
},
{
"epoch": 4.466666666666667,
"grad_norm": 1.2375740608897428,
"learning_rate": 1.2255374261813944e-05,
"loss": 1.0133,
"step": 67
},
{
"epoch": 4.533333333333333,
"grad_norm": 0.9760429622715396,
"learning_rate": 1.204378226506365e-05,
"loss": 0.7568,
"step": 68
},
{
"epoch": 4.6,
"grad_norm": 1.489210275369955,
"learning_rate": 1.1831230908818563e-05,
"loss": 0.779,
"step": 69
},
{
"epoch": 4.666666666666667,
"grad_norm": 1.1933378195744682,
"learning_rate": 1.161781996552765e-05,
"loss": 1.2456,
"step": 70
},
{
"epoch": 4.733333333333333,
"grad_norm": 0.9862661993909408,
"learning_rate": 1.1403649611133444e-05,
"loss": 0.9868,
"step": 71
},
{
"epoch": 4.8,
"grad_norm": 1.2076305842024768,
"learning_rate": 1.1188820378049066e-05,
"loss": 1.0797,
"step": 72
},
{
"epoch": 4.866666666666667,
"grad_norm": 1.2607815569078051,
"learning_rate": 1.0973433107967901e-05,
"loss": 0.9826,
"step": 73
},
{
"epoch": 4.933333333333334,
"grad_norm": 1.094147617295901,
"learning_rate": 1.0757588904528106e-05,
"loss": 0.8119,
"step": 74
},
{
"epoch": 5.0,
"grad_norm": 1.1121751761899872,
"learning_rate": 1.0541389085854177e-05,
"loss": 0.9773,
"step": 75
},
{
"epoch": 5.066666666666666,
"grad_norm": 1.0579179415785263,
"learning_rate": 1.0324935136997807e-05,
"loss": 0.9678,
"step": 76
},
{
"epoch": 5.133333333333334,
"grad_norm": 1.3395230330750847,
"learning_rate": 1.0108328662300399e-05,
"loss": 0.7061,
"step": 77
},
{
"epoch": 5.2,
"grad_norm": 1.1999310932391165,
"learning_rate": 9.891671337699603e-06,
"loss": 0.8735,
"step": 78
},
{
"epoch": 5.266666666666667,
"grad_norm": 1.010683429579378,
"learning_rate": 9.675064863002196e-06,
"loss": 0.8371,
"step": 79
},
{
"epoch": 5.333333333333333,
"grad_norm": 1.2108378582218189,
"learning_rate": 9.458610914145826e-06,
"loss": 1.181,
"step": 80
},
{
"epoch": 5.4,
"grad_norm": 1.18004488850976,
"learning_rate": 9.242411095471897e-06,
"loss": 1.0823,
"step": 81
},
{
"epoch": 5.466666666666667,
"grad_norm": 1.0454083723550043,
"learning_rate": 9.026566892032104e-06,
"loss": 0.9903,
"step": 82
},
{
"epoch": 5.533333333333333,
"grad_norm": 1.0667864315015048,
"learning_rate": 8.811179621950937e-06,
"loss": 0.8442,
"step": 83
},
{
"epoch": 5.6,
"grad_norm": 1.2020765015122372,
"learning_rate": 8.596350388866557e-06,
"loss": 0.8857,
"step": 84
},
{
"epoch": 5.666666666666667,
"grad_norm": 1.4131091155815,
"learning_rate": 8.382180034472353e-06,
"loss": 0.9864,
"step": 85
},
{
"epoch": 5.733333333333333,
"grad_norm": 1.486362030270159,
"learning_rate": 8.168769091181439e-06,
"loss": 0.9574,
"step": 86
},
{
"epoch": 5.8,
"grad_norm": 1.313551073594268,
"learning_rate": 7.956217734936353e-06,
"loss": 0.9289,
"step": 87
},
{
"epoch": 5.866666666666667,
"grad_norm": 1.3192481257399435,
"learning_rate": 7.74462573818606e-06,
"loss": 0.9545,
"step": 88
},
{
"epoch": 5.933333333333334,
"grad_norm": 1.2681138440264965,
"learning_rate": 7.534092423052382e-06,
"loss": 1.0747,
"step": 89
},
{
"epoch": 6.0,
"grad_norm": 0.9582207978580328,
"learning_rate": 7.324716614707794e-06,
"loss": 0.8385,
"step": 90
},
{
"epoch": 6.066666666666666,
"grad_norm": 1.1698689314961477,
"learning_rate": 7.1165965949864934e-06,
"loss": 1.1033,
"step": 91
},
{
"epoch": 6.133333333333334,
"grad_norm": 1.3416716837210243,
"learning_rate": 6.909830056250527e-06,
"loss": 1.1822,
"step": 92
},
{
"epoch": 6.2,
"grad_norm": 1.0995942596498807,
"learning_rate": 6.704514055532597e-06,
"loss": 0.8676,
"step": 93
},
{
"epoch": 6.266666666666667,
"grad_norm": 1.4321467042913982,
"learning_rate": 6.500744968977116e-06,
"loss": 1.036,
"step": 94
},
{
"epoch": 6.333333333333333,
"grad_norm": 1.3088314218758716,
"learning_rate": 6.298618446600856e-06,
"loss": 0.8292,
"step": 95
},
{
"epoch": 6.4,
"grad_norm": 1.084823909937734,
"learning_rate": 6.098229367394455e-06,
"loss": 0.975,
"step": 96
},
{
"epoch": 6.466666666666667,
"grad_norm": 1.3218371701948628,
"learning_rate": 5.8996717947858395e-06,
"loss": 0.9402,
"step": 97
},
{
"epoch": 6.533333333333333,
"grad_norm": 1.1129487953662585,
"learning_rate": 5.7030389324864845e-06,
"loss": 0.8253,
"step": 98
},
{
"epoch": 6.6,
"grad_norm": 1.1419580401776912,
"learning_rate": 5.5084230807412135e-06,
"loss": 0.9734,
"step": 99
},
{
"epoch": 6.666666666666667,
"grad_norm": 1.0974795589959343,
"learning_rate": 5.3159155930021e-06,
"loss": 1.0441,
"step": 100
},
{
"epoch": 6.733333333333333,
"grad_norm": 1.324828991574355,
"learning_rate": 5.12560683304681e-06,
"loss": 0.8698,
"step": 101
},
{
"epoch": 6.8,
"grad_norm": 1.1620425079977543,
"learning_rate": 4.93758613256146e-06,
"loss": 0.916,
"step": 102
},
{
"epoch": 6.866666666666667,
"grad_norm": 1.298026477724516,
"learning_rate": 4.751941749207996e-06,
"loss": 0.8102,
"step": 103
},
{
"epoch": 6.933333333333334,
"grad_norm": 1.243701423436194,
"learning_rate": 4.568760825195671e-06,
"loss": 0.7848,
"step": 104
},
{
"epoch": 7.0,
"grad_norm": 1.0511054186542836,
"learning_rate": 4.388129346376177e-06,
"loss": 0.8403,
"step": 105
},
{
"epoch": 7.066666666666666,
"grad_norm": 1.0830500750727494,
"learning_rate": 4.210132101881516e-06,
"loss": 1.0224,
"step": 106
},
{
"epoch": 7.133333333333334,
"grad_norm": 1.191885763343317,
"learning_rate": 4.034852644323661e-06,
"loss": 0.8888,
"step": 107
},
{
"epoch": 7.2,
"grad_norm": 1.3962415711635006,
"learning_rate": 3.862373250574626e-06,
"loss": 0.9008,
"step": 108
},
{
"epoch": 7.266666666666667,
"grad_norm": 1.1538336817545218,
"learning_rate": 3.6927748831453835e-06,
"loss": 0.7594,
"step": 109
},
{
"epoch": 7.333333333333333,
"grad_norm": 1.3153809280781052,
"learning_rate": 3.5261371521817247e-06,
"loss": 0.8526,
"step": 110
},
{
"epoch": 7.4,
"grad_norm": 1.3264279555663367,
"learning_rate": 3.3625382780949576e-06,
"loss": 0.9908,
"step": 111
},
{
"epoch": 7.466666666666667,
"grad_norm": 1.5096221335051931,
"learning_rate": 3.2020550548449213e-06,
"loss": 0.9226,
"step": 112
},
{
"epoch": 7.533333333333333,
"grad_norm": 1.2307393476716613,
"learning_rate": 3.0447628138926153e-06,
"loss": 1.0507,
"step": 113
},
{
"epoch": 7.6,
"grad_norm": 1.6151399665431556,
"learning_rate": 2.8907353888392955e-06,
"loss": 0.9208,
"step": 114
},
{
"epoch": 7.666666666666667,
"grad_norm": 1.2245799893438452,
"learning_rate": 2.740045080768694e-06,
"loss": 0.8878,
"step": 115
},
{
"epoch": 7.733333333333333,
"grad_norm": 1.3690463927412484,
"learning_rate": 2.59276262430861e-06,
"loss": 0.9999,
"step": 116
},
{
"epoch": 7.8,
"grad_norm": 1.0835082652598607,
"learning_rate": 2.4489571544277944e-06,
"loss": 0.8532,
"step": 117
},
{
"epoch": 7.866666666666667,
"grad_norm": 1.2346213474649816,
"learning_rate": 2.308696173983711e-06,
"loss": 0.8705,
"step": 118
},
{
"epoch": 7.933333333333334,
"grad_norm": 1.1723472737281382,
"learning_rate": 2.1720455220364443e-06,
"loss": 1.0879,
"step": 119
},
{
"epoch": 8.0,
"grad_norm": 1.4073752757192692,
"learning_rate": 2.0390693429435626e-06,
"loss": 0.9452,
"step": 120
},
{
"epoch": 8.066666666666666,
"grad_norm": 1.50287195221356,
"learning_rate": 1.9098300562505266e-06,
"loss": 0.8373,
"step": 121
},
{
"epoch": 8.133333333333333,
"grad_norm": 1.1620276613706093,
"learning_rate": 1.784388327390687e-06,
"loss": 0.7806,
"step": 122
},
{
"epoch": 8.2,
"grad_norm": 1.3706625987581769,
"learning_rate": 1.6628030392087001e-06,
"loss": 0.9926,
"step": 123
},
{
"epoch": 8.266666666666667,
"grad_norm": 0.9859962643201381,
"learning_rate": 1.5451312643206828e-06,
"loss": 0.7548,
"step": 124
},
{
"epoch": 8.333333333333334,
"grad_norm": 1.3785850516874856,
"learning_rate": 1.4314282383241097e-06,
"loss": 0.9119,
"step": 125
},
{
"epoch": 8.4,
"grad_norm": 1.3114820954248407,
"learning_rate": 1.321747333869986e-06,
"loss": 1.0087,
"step": 126
},
{
"epoch": 8.466666666666667,
"grad_norm": 1.4511492872823224,
"learning_rate": 1.2161400356095376e-06,
"loss": 0.9118,
"step": 127
},
{
"epoch": 8.533333333333333,
"grad_norm": 1.3077491727116757,
"learning_rate": 1.1146559160270875e-06,
"loss": 0.8493,
"step": 128
},
{
"epoch": 8.6,
"grad_norm": 1.2121934493369244,
"learning_rate": 1.0173426121705577e-06,
"loss": 0.8756,
"step": 129
},
{
"epoch": 8.666666666666666,
"grad_norm": 1.3513057171003726,
"learning_rate": 9.242458032904311e-07,
"loss": 0.8671,
"step": 130
},
{
"epoch": 8.733333333333333,
"grad_norm": 1.7742909013104993,
"learning_rate": 8.354091893977401e-07,
"loss": 1.0612,
"step": 131
},
{
"epoch": 8.8,
"grad_norm": 1.323453973832503,
"learning_rate": 7.508744707511118e-07,
"loss": 1.0907,
"step": 132
},
{
"epoch": 8.866666666666667,
"grad_norm": 1.5726657249632015,
"learning_rate": 6.70681328282492e-07,
"loss": 1.1042,
"step": 133
},
{
"epoch": 8.933333333333334,
"grad_norm": 1.6611333460302735,
"learning_rate": 5.948674049707604e-07,
"loss": 0.9262,
"step": 134
},
{
"epoch": 9.0,
"grad_norm": 1.1742790020667146,
"learning_rate": 5.234682881719766e-07,
"loss": 0.9672,
"step": 135
},
{
"epoch": 9.066666666666666,
"grad_norm": 1.0761169784949698,
"learning_rate": 4.5651749291451884e-07,
"loss": 0.8506,
"step": 136
},
{
"epoch": 9.133333333333333,
"grad_norm": 1.3886579936980605,
"learning_rate": 3.940464461670135e-07,
"loss": 1.0981,
"step": 137
},
{
"epoch": 9.2,
"grad_norm": 1.3056666968807966,
"learning_rate": 3.360844720863765e-07,
"loss": 0.9153,
"step": 138
},
{
"epoch": 9.266666666666667,
"grad_norm": 0.9871679254938126,
"learning_rate": 2.826587782529444e-07,
"loss": 1.0896,
"step": 139
},
{
"epoch": 9.333333333333334,
"grad_norm": 1.2366625168342313,
"learning_rate": 2.3379444289913344e-07,
"loss": 1.0518,
"step": 140
},
{
"epoch": 9.4,
"grad_norm": 1.2975380970054535,
"learning_rate": 1.8951440313760838e-07,
"loss": 0.8743,
"step": 141
},
{
"epoch": 9.466666666666667,
"grad_norm": 1.1663276705416328,
"learning_rate": 1.4983944419451613e-07,
"loss": 0.8289,
"step": 142
},
{
"epoch": 9.533333333333333,
"grad_norm": 0.8248741509562691,
"learning_rate": 1.1478818965281912e-07,
"loss": 0.8659,
"step": 143
},
{
"epoch": 9.6,
"grad_norm": 1.1851143756826896,
"learning_rate": 8.437709271030603e-08,
"loss": 0.9649,
"step": 144
},
{
"epoch": 9.666666666666666,
"grad_norm": 1.507015449593647,
"learning_rate": 5.862042845640403e-08,
"loss": 1.0538,
"step": 145
},
{
"epoch": 9.733333333333333,
"grad_norm": 1.188730734080061,
"learning_rate": 3.753028717138785e-08,
"loss": 0.8341,
"step": 146
},
{
"epoch": 9.8,
"grad_norm": 1.2919573593809717,
"learning_rate": 2.1116568651156076e-08,
"loss": 0.7354,
"step": 147
},
{
"epoch": 9.866666666666667,
"grad_norm": 1.2064234964836027,
"learning_rate": 9.38697756023288e-09,
"loss": 0.775,
"step": 148
},
{
"epoch": 9.933333333333334,
"grad_norm": 1.454794110461292,
"learning_rate": 2.347019815158724e-09,
"loss": 1.0675,
"step": 149
},
{
"epoch": 10.0,
"grad_norm": 1.3030482316707324,
"learning_rate": 0.0,
"loss": 0.7781,
"step": 150
},
{
"epoch": 10.0,
"step": 150,
"total_flos": 3.203109984455885e+17,
"train_loss": 0.0,
"train_runtime": 25.7604,
"train_samples_per_second": 136.644,
"train_steps_per_second": 5.823
}
],
"logging_steps": 1.0,
"max_steps": 150,
"num_input_tokens_seen": 0,
"num_train_epochs": 10,
"save_steps": 69,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 3.203109984455885e+17,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}