QJerry's picture
Upload 220 to 300 steps of 351 steps.
aa16d29 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.389333333333333,
"eval_steps": 500,
"global_step": 280,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.008533333333333334,
"grad_norm": 100.21848203113535,
"learning_rate": 0.0,
"loss": 7.1962,
"step": 1
},
{
"epoch": 0.017066666666666667,
"grad_norm": 96.43006188910957,
"learning_rate": 3.0102999566398115e-06,
"loss": 6.9414,
"step": 2
},
{
"epoch": 0.0256,
"grad_norm": 97.35803466618715,
"learning_rate": 4.771212547196624e-06,
"loss": 7.0102,
"step": 3
},
{
"epoch": 0.034133333333333335,
"grad_norm": 95.14837816372646,
"learning_rate": 6.020599913279623e-06,
"loss": 6.5295,
"step": 4
},
{
"epoch": 0.042666666666666665,
"grad_norm": 91.76544275692784,
"learning_rate": 6.989700043360187e-06,
"loss": 6.4806,
"step": 5
},
{
"epoch": 0.0512,
"grad_norm": 84.4494318688335,
"learning_rate": 7.781512503836437e-06,
"loss": 6.4194,
"step": 6
},
{
"epoch": 0.05973333333333333,
"grad_norm": 71.37977490595638,
"learning_rate": 8.450980400142568e-06,
"loss": 5.4953,
"step": 7
},
{
"epoch": 0.06826666666666667,
"grad_norm": 49.31153456754566,
"learning_rate": 9.030899869919434e-06,
"loss": 5.4123,
"step": 8
},
{
"epoch": 0.0768,
"grad_norm": 20.37296364560341,
"learning_rate": 9.542425094393249e-06,
"loss": 5.2334,
"step": 9
},
{
"epoch": 0.08533333333333333,
"grad_norm": 7.968467079076881,
"learning_rate": 9.999999999999999e-06,
"loss": 5.0282,
"step": 10
},
{
"epoch": 0.09386666666666667,
"grad_norm": 3.559446532055649,
"learning_rate": 1.041392685158225e-05,
"loss": 4.612,
"step": 11
},
{
"epoch": 0.1024,
"grad_norm": 3.5528846947995674,
"learning_rate": 1.0791812460476248e-05,
"loss": 4.9475,
"step": 12
},
{
"epoch": 0.11093333333333333,
"grad_norm": 3.541968897471334,
"learning_rate": 1.1139433523068365e-05,
"loss": 4.2777,
"step": 13
},
{
"epoch": 0.11946666666666667,
"grad_norm": 3.54718070036198,
"learning_rate": 1.1461280356782378e-05,
"loss": 4.3507,
"step": 14
},
{
"epoch": 0.128,
"grad_norm": 3.8632334830606747,
"learning_rate": 1.1760912590556813e-05,
"loss": 4.5364,
"step": 15
},
{
"epoch": 0.13653333333333334,
"grad_norm": 3.6637424744054004,
"learning_rate": 1.2041199826559246e-05,
"loss": 3.9672,
"step": 16
},
{
"epoch": 0.14506666666666668,
"grad_norm": 3.919802904818311,
"learning_rate": 1.230448921378274e-05,
"loss": 4.0618,
"step": 17
},
{
"epoch": 0.1536,
"grad_norm": 4.71904950738746,
"learning_rate": 1.2552725051033058e-05,
"loss": 4.6656,
"step": 18
},
{
"epoch": 0.16213333333333332,
"grad_norm": 4.6656317698690835,
"learning_rate": 1.2787536009528288e-05,
"loss": 4.1131,
"step": 19
},
{
"epoch": 0.17066666666666666,
"grad_norm": 5.145138692367417,
"learning_rate": 1.301029995663981e-05,
"loss": 4.0989,
"step": 20
},
{
"epoch": 0.1792,
"grad_norm": 5.923538014759818,
"learning_rate": 1.3222192947339192e-05,
"loss": 4.4991,
"step": 21
},
{
"epoch": 0.18773333333333334,
"grad_norm": 5.941056962941364,
"learning_rate": 1.3424226808222062e-05,
"loss": 4.0836,
"step": 22
},
{
"epoch": 0.19626666666666667,
"grad_norm": 6.171026012117947,
"learning_rate": 1.3617278360175927e-05,
"loss": 3.6861,
"step": 23
},
{
"epoch": 0.2048,
"grad_norm": 7.130542138930838,
"learning_rate": 1.380211241711606e-05,
"loss": 4.0958,
"step": 24
},
{
"epoch": 0.21333333333333335,
"grad_norm": 7.328837606110418,
"learning_rate": 1.3979400086720374e-05,
"loss": 3.9524,
"step": 25
},
{
"epoch": 0.22186666666666666,
"grad_norm": 6.923489005711429,
"learning_rate": 1.4149733479708178e-05,
"loss": 3.6062,
"step": 26
},
{
"epoch": 0.2304,
"grad_norm": 6.409498926059221,
"learning_rate": 1.4313637641589872e-05,
"loss": 3.2034,
"step": 27
},
{
"epoch": 0.23893333333333333,
"grad_norm": 5.781628405584682,
"learning_rate": 1.4471580313422191e-05,
"loss": 2.8158,
"step": 28
},
{
"epoch": 0.24746666666666667,
"grad_norm": 6.2927590068243315,
"learning_rate": 1.4623979978989559e-05,
"loss": 2.9803,
"step": 29
},
{
"epoch": 0.256,
"grad_norm": 6.103844678630006,
"learning_rate": 1.4771212547196623e-05,
"loss": 2.847,
"step": 30
},
{
"epoch": 0.26453333333333334,
"grad_norm": 7.656341925867144,
"learning_rate": 1.4913616938342726e-05,
"loss": 3.0907,
"step": 31
},
{
"epoch": 0.2730666666666667,
"grad_norm": 6.324242877501844,
"learning_rate": 1.5051499783199059e-05,
"loss": 2.3467,
"step": 32
},
{
"epoch": 0.2816,
"grad_norm": 7.606313101162739,
"learning_rate": 1.5185139398778874e-05,
"loss": 2.5292,
"step": 33
},
{
"epoch": 0.29013333333333335,
"grad_norm": 8.553792493849265,
"learning_rate": 1.531478917042255e-05,
"loss": 2.4547,
"step": 34
},
{
"epoch": 0.2986666666666667,
"grad_norm": 8.483368703272543,
"learning_rate": 1.5440680443502753e-05,
"loss": 2.1956,
"step": 35
},
{
"epoch": 0.3072,
"grad_norm": 8.364739352838077,
"learning_rate": 1.5563025007672873e-05,
"loss": 1.8552,
"step": 36
},
{
"epoch": 0.3157333333333333,
"grad_norm": 9.37663682000104,
"learning_rate": 1.5682017240669948e-05,
"loss": 1.9228,
"step": 37
},
{
"epoch": 0.32426666666666665,
"grad_norm": 9.823047193440066,
"learning_rate": 1.57978359661681e-05,
"loss": 1.7033,
"step": 38
},
{
"epoch": 0.3328,
"grad_norm": 9.692618512955894,
"learning_rate": 1.591064607026499e-05,
"loss": 1.3768,
"step": 39
},
{
"epoch": 0.3413333333333333,
"grad_norm": 9.08889021911031,
"learning_rate": 1.6020599913279622e-05,
"loss": 1.3015,
"step": 40
},
{
"epoch": 0.34986666666666666,
"grad_norm": 8.081534221516058,
"learning_rate": 1.6127838567197353e-05,
"loss": 0.9228,
"step": 41
},
{
"epoch": 0.3584,
"grad_norm": 6.238638048950311,
"learning_rate": 1.6232492903979005e-05,
"loss": 0.7267,
"step": 42
},
{
"epoch": 0.36693333333333333,
"grad_norm": 3.4058036861773604,
"learning_rate": 1.6334684555795865e-05,
"loss": 0.5875,
"step": 43
},
{
"epoch": 0.37546666666666667,
"grad_norm": 2.079163829467713,
"learning_rate": 1.6434526764861872e-05,
"loss": 0.6355,
"step": 44
},
{
"epoch": 0.384,
"grad_norm": 1.5597487833024746,
"learning_rate": 1.6532125137753435e-05,
"loss": 0.5106,
"step": 45
},
{
"epoch": 0.39253333333333335,
"grad_norm": 2.491689602375256,
"learning_rate": 1.662757831681574e-05,
"loss": 0.6454,
"step": 46
},
{
"epoch": 0.4010666666666667,
"grad_norm": 2.010880438195854,
"learning_rate": 1.672097857935717e-05,
"loss": 0.4757,
"step": 47
},
{
"epoch": 0.4096,
"grad_norm": 1.9452805114322096,
"learning_rate": 1.681241237375587e-05,
"loss": 0.4133,
"step": 48
},
{
"epoch": 0.41813333333333336,
"grad_norm": 1.7620848552306103,
"learning_rate": 1.6901960800285137e-05,
"loss": 0.4004,
"step": 49
},
{
"epoch": 0.4266666666666667,
"grad_norm": 1.278224489774809,
"learning_rate": 1.6989700043360187e-05,
"loss": 0.3523,
"step": 50
},
{
"epoch": 0.4352,
"grad_norm": 1.6151354758303231,
"learning_rate": 1.7075701760979363e-05,
"loss": 0.4317,
"step": 51
},
{
"epoch": 0.4437333333333333,
"grad_norm": 1.3451396055695035,
"learning_rate": 1.716003343634799e-05,
"loss": 0.3474,
"step": 52
},
{
"epoch": 0.45226666666666665,
"grad_norm": 1.6814977782362666,
"learning_rate": 1.724275869600789e-05,
"loss": 0.3706,
"step": 53
},
{
"epoch": 0.4608,
"grad_norm": 1.1682442432688667,
"learning_rate": 1.7323937598229687e-05,
"loss": 0.3488,
"step": 54
},
{
"epoch": 0.4693333333333333,
"grad_norm": 0.8839814540462471,
"learning_rate": 1.7403626894942437e-05,
"loss": 0.293,
"step": 55
},
{
"epoch": 0.47786666666666666,
"grad_norm": 0.7974304806295485,
"learning_rate": 1.7481880270062003e-05,
"loss": 0.2717,
"step": 56
},
{
"epoch": 0.4864,
"grad_norm": 0.6232203657585239,
"learning_rate": 1.7558748556724913e-05,
"loss": 0.1741,
"step": 57
},
{
"epoch": 0.49493333333333334,
"grad_norm": 0.6850688604563008,
"learning_rate": 1.763427993562937e-05,
"loss": 0.228,
"step": 58
},
{
"epoch": 0.5034666666666666,
"grad_norm": 0.5923826384300431,
"learning_rate": 1.7708520116421443e-05,
"loss": 0.2131,
"step": 59
},
{
"epoch": 0.512,
"grad_norm": 0.489754430485032,
"learning_rate": 1.7781512503836432e-05,
"loss": 0.165,
"step": 60
},
{
"epoch": 0.5205333333333333,
"grad_norm": 0.5280940052395061,
"learning_rate": 1.7853298350107667e-05,
"loss": 0.1658,
"step": 61
},
{
"epoch": 0.5290666666666667,
"grad_norm": 0.4750905992036739,
"learning_rate": 1.7923916894982537e-05,
"loss": 0.1438,
"step": 62
},
{
"epoch": 0.5376,
"grad_norm": 0.4162998392722401,
"learning_rate": 1.7993405494535815e-05,
"loss": 0.1555,
"step": 63
},
{
"epoch": 0.5461333333333334,
"grad_norm": 0.26863266246370443,
"learning_rate": 1.806179973983887e-05,
"loss": 0.1323,
"step": 64
},
{
"epoch": 0.5546666666666666,
"grad_norm": 0.26534221125601215,
"learning_rate": 1.8129133566428553e-05,
"loss": 0.1671,
"step": 65
},
{
"epoch": 0.5632,
"grad_norm": 0.2548662962257576,
"learning_rate": 1.8195439355418686e-05,
"loss": 0.1308,
"step": 66
},
{
"epoch": 0.5717333333333333,
"grad_norm": 0.18045394638578796,
"learning_rate": 1.8260748027008263e-05,
"loss": 0.1262,
"step": 67
},
{
"epoch": 0.5802666666666667,
"grad_norm": 0.17070388073612064,
"learning_rate": 1.8325089127062364e-05,
"loss": 0.1192,
"step": 68
},
{
"epoch": 0.5888,
"grad_norm": 0.1531381679244776,
"learning_rate": 1.8388490907372553e-05,
"loss": 0.1274,
"step": 69
},
{
"epoch": 0.5973333333333334,
"grad_norm": 0.18196434993687946,
"learning_rate": 1.8450980400142568e-05,
"loss": 0.1375,
"step": 70
},
{
"epoch": 0.6058666666666667,
"grad_norm": 0.15324416972951205,
"learning_rate": 1.8512583487190752e-05,
"loss": 0.1599,
"step": 71
},
{
"epoch": 0.6144,
"grad_norm": 0.10884462064503801,
"learning_rate": 1.857332496431268e-05,
"loss": 0.1041,
"step": 72
},
{
"epoch": 0.6229333333333333,
"grad_norm": 0.12915133528192668,
"learning_rate": 1.8633228601204555e-05,
"loss": 0.1406,
"step": 73
},
{
"epoch": 0.6314666666666666,
"grad_norm": 0.12553425699952878,
"learning_rate": 1.8692317197309763e-05,
"loss": 0.1256,
"step": 74
},
{
"epoch": 0.64,
"grad_norm": 0.11976960918968543,
"learning_rate": 1.8750612633916997e-05,
"loss": 0.1144,
"step": 75
},
{
"epoch": 0.6485333333333333,
"grad_norm": 0.115805998298789,
"learning_rate": 1.8808135922807914e-05,
"loss": 0.1528,
"step": 76
},
{
"epoch": 0.6570666666666667,
"grad_norm": 0.10325948496697443,
"learning_rate": 1.8864907251724818e-05,
"loss": 0.1044,
"step": 77
},
{
"epoch": 0.6656,
"grad_norm": 0.09595064346541006,
"learning_rate": 1.8920946026904802e-05,
"loss": 0.1534,
"step": 78
},
{
"epoch": 0.6741333333333334,
"grad_norm": 0.08796742845240496,
"learning_rate": 1.8976270912904414e-05,
"loss": 0.1155,
"step": 79
},
{
"epoch": 0.6826666666666666,
"grad_norm": 0.08218991738379527,
"learning_rate": 1.9030899869919434e-05,
"loss": 0.1311,
"step": 80
},
{
"epoch": 0.6912,
"grad_norm": 0.08290815261109215,
"learning_rate": 1.9084850188786497e-05,
"loss": 0.11,
"step": 81
},
{
"epoch": 0.6997333333333333,
"grad_norm": 0.0794132180176064,
"learning_rate": 1.9138138523837165e-05,
"loss": 0.1135,
"step": 82
},
{
"epoch": 0.7082666666666667,
"grad_norm": 0.06934410705255296,
"learning_rate": 1.919078092376074e-05,
"loss": 0.109,
"step": 83
},
{
"epoch": 0.7168,
"grad_norm": 0.09000563031870593,
"learning_rate": 1.9242792860618813e-05,
"loss": 0.12,
"step": 84
},
{
"epoch": 0.7253333333333334,
"grad_norm": 0.1134042277879818,
"learning_rate": 1.929418925714293e-05,
"loss": 0.1223,
"step": 85
},
{
"epoch": 0.7338666666666667,
"grad_norm": 0.09118764690233076,
"learning_rate": 1.9344984512435673e-05,
"loss": 0.1459,
"step": 86
},
{
"epoch": 0.7424,
"grad_norm": 0.07873016754353963,
"learning_rate": 1.9395192526186183e-05,
"loss": 0.1422,
"step": 87
},
{
"epoch": 0.7509333333333333,
"grad_norm": 0.1796495874463076,
"learning_rate": 1.9444826721501687e-05,
"loss": 0.1291,
"step": 88
},
{
"epoch": 0.7594666666666666,
"grad_norm": 0.0679589944174269,
"learning_rate": 1.9493900066449125e-05,
"loss": 0.108,
"step": 89
},
{
"epoch": 0.768,
"grad_norm": 0.08174688574235538,
"learning_rate": 1.9542425094393246e-05,
"loss": 0.1081,
"step": 90
},
{
"epoch": 0.7765333333333333,
"grad_norm": 0.057137370501406756,
"learning_rate": 1.9590413923210934e-05,
"loss": 0.0934,
"step": 91
},
{
"epoch": 0.7850666666666667,
"grad_norm": 0.06578111924908255,
"learning_rate": 1.9637878273455555e-05,
"loss": 0.1085,
"step": 92
},
{
"epoch": 0.7936,
"grad_norm": 0.08945990540906254,
"learning_rate": 1.968482948553935e-05,
"loss": 0.1747,
"step": 93
},
{
"epoch": 0.8021333333333334,
"grad_norm": 0.06183863311044229,
"learning_rate": 1.9731278535996986e-05,
"loss": 0.1136,
"step": 94
},
{
"epoch": 0.8106666666666666,
"grad_norm": 0.05777899602544702,
"learning_rate": 1.9777236052888476e-05,
"loss": 0.0984,
"step": 95
},
{
"epoch": 0.8192,
"grad_norm": 0.08130851607693534,
"learning_rate": 1.9822712330395683e-05,
"loss": 0.187,
"step": 96
},
{
"epoch": 0.8277333333333333,
"grad_norm": 0.06426546202002927,
"learning_rate": 1.986771734266245e-05,
"loss": 0.1296,
"step": 97
},
{
"epoch": 0.8362666666666667,
"grad_norm": 0.069692313707994,
"learning_rate": 1.991226075692495e-05,
"loss": 0.1404,
"step": 98
},
{
"epoch": 0.8448,
"grad_norm": 0.05494542266886729,
"learning_rate": 1.9956351945975496e-05,
"loss": 0.116,
"step": 99
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.07571686966840627,
"learning_rate": 1.9999999999999998e-05,
"loss": 0.1539,
"step": 100
},
{
"epoch": 0.8618666666666667,
"grad_norm": 0.054351059117603705,
"learning_rate": 2e-05,
"loss": 0.1037,
"step": 101
},
{
"epoch": 0.8704,
"grad_norm": 0.06531899611551092,
"learning_rate": 2e-05,
"loss": 0.0827,
"step": 102
},
{
"epoch": 0.8789333333333333,
"grad_norm": 0.06131678646504652,
"learning_rate": 2e-05,
"loss": 0.1266,
"step": 103
},
{
"epoch": 0.8874666666666666,
"grad_norm": 0.06850220540661824,
"learning_rate": 2e-05,
"loss": 0.1456,
"step": 104
},
{
"epoch": 0.896,
"grad_norm": 0.05806908951252483,
"learning_rate": 2e-05,
"loss": 0.0954,
"step": 105
},
{
"epoch": 0.9045333333333333,
"grad_norm": 0.06503642452033717,
"learning_rate": 2e-05,
"loss": 0.1417,
"step": 106
},
{
"epoch": 0.9130666666666667,
"grad_norm": 0.050486271853277066,
"learning_rate": 2e-05,
"loss": 0.0959,
"step": 107
},
{
"epoch": 0.9216,
"grad_norm": 0.07746063813802379,
"learning_rate": 2e-05,
"loss": 0.1256,
"step": 108
},
{
"epoch": 0.9301333333333334,
"grad_norm": 0.051231172380840004,
"learning_rate": 2e-05,
"loss": 0.1116,
"step": 109
},
{
"epoch": 0.9386666666666666,
"grad_norm": 0.056296443557859455,
"learning_rate": 2e-05,
"loss": 0.1056,
"step": 110
},
{
"epoch": 0.9472,
"grad_norm": 0.05058663240713958,
"learning_rate": 2e-05,
"loss": 0.0971,
"step": 111
},
{
"epoch": 0.9557333333333333,
"grad_norm": 0.05532886570130611,
"learning_rate": 2e-05,
"loss": 0.1086,
"step": 112
},
{
"epoch": 0.9642666666666667,
"grad_norm": 0.05327811326654907,
"learning_rate": 2e-05,
"loss": 0.0989,
"step": 113
},
{
"epoch": 0.9728,
"grad_norm": 0.05663279364147864,
"learning_rate": 2e-05,
"loss": 0.0958,
"step": 114
},
{
"epoch": 0.9813333333333333,
"grad_norm": 0.04930904541225805,
"learning_rate": 2e-05,
"loss": 0.0887,
"step": 115
},
{
"epoch": 0.9898666666666667,
"grad_norm": 0.06096947951115022,
"learning_rate": 2e-05,
"loss": 0.106,
"step": 116
},
{
"epoch": 0.9984,
"grad_norm": 0.050092322361182495,
"learning_rate": 2e-05,
"loss": 0.0931,
"step": 117
},
{
"epoch": 1.0069333333333332,
"grad_norm": 0.04980408443758999,
"learning_rate": 2e-05,
"loss": 0.0955,
"step": 118
},
{
"epoch": 1.0154666666666667,
"grad_norm": 0.051183082721834305,
"learning_rate": 2e-05,
"loss": 0.1049,
"step": 119
},
{
"epoch": 1.024,
"grad_norm": 0.04332220265802814,
"learning_rate": 2e-05,
"loss": 0.0983,
"step": 120
},
{
"epoch": 1.0325333333333333,
"grad_norm": 0.07211731499677299,
"learning_rate": 2e-05,
"loss": 0.1386,
"step": 121
},
{
"epoch": 1.0410666666666666,
"grad_norm": 0.06550870223740553,
"learning_rate": 2e-05,
"loss": 0.1334,
"step": 122
},
{
"epoch": 1.0496,
"grad_norm": 0.05331839690767287,
"learning_rate": 2e-05,
"loss": 0.1014,
"step": 123
},
{
"epoch": 1.0581333333333334,
"grad_norm": 0.05227685628767905,
"learning_rate": 2e-05,
"loss": 0.1098,
"step": 124
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.07641693882491171,
"learning_rate": 2e-05,
"loss": 0.1127,
"step": 125
},
{
"epoch": 1.0752,
"grad_norm": 0.052835367770791786,
"learning_rate": 2e-05,
"loss": 0.1231,
"step": 126
},
{
"epoch": 1.0837333333333334,
"grad_norm": 0.07520329755025788,
"learning_rate": 2e-05,
"loss": 0.085,
"step": 127
},
{
"epoch": 1.0922666666666667,
"grad_norm": 0.07670066152157425,
"learning_rate": 2e-05,
"loss": 0.1071,
"step": 128
},
{
"epoch": 1.1008,
"grad_norm": 0.052832906560645154,
"learning_rate": 2e-05,
"loss": 0.1093,
"step": 129
},
{
"epoch": 1.1093333333333333,
"grad_norm": 0.06573889037311398,
"learning_rate": 2e-05,
"loss": 0.1193,
"step": 130
},
{
"epoch": 1.1178666666666666,
"grad_norm": 0.05175471296566334,
"learning_rate": 2e-05,
"loss": 0.1184,
"step": 131
},
{
"epoch": 1.1264,
"grad_norm": 0.05912231419793496,
"learning_rate": 2e-05,
"loss": 0.1154,
"step": 132
},
{
"epoch": 1.1349333333333333,
"grad_norm": 0.04899140475981105,
"learning_rate": 2e-05,
"loss": 0.0957,
"step": 133
},
{
"epoch": 1.1434666666666666,
"grad_norm": 0.05939916939142137,
"learning_rate": 2e-05,
"loss": 0.0979,
"step": 134
},
{
"epoch": 1.152,
"grad_norm": 0.0516819217599706,
"learning_rate": 2e-05,
"loss": 0.0834,
"step": 135
},
{
"epoch": 1.1605333333333334,
"grad_norm": 0.05456440346454737,
"learning_rate": 2e-05,
"loss": 0.1183,
"step": 136
},
{
"epoch": 1.1690666666666667,
"grad_norm": 0.059906464476343235,
"learning_rate": 2e-05,
"loss": 0.1048,
"step": 137
},
{
"epoch": 1.1776,
"grad_norm": 0.0720112680204319,
"learning_rate": 2e-05,
"loss": 0.1168,
"step": 138
},
{
"epoch": 1.1861333333333333,
"grad_norm": 0.04940202805828527,
"learning_rate": 2e-05,
"loss": 0.0948,
"step": 139
},
{
"epoch": 1.1946666666666665,
"grad_norm": 0.060088609545130046,
"learning_rate": 2e-05,
"loss": 0.0952,
"step": 140
},
{
"epoch": 1.2032,
"grad_norm": 0.04694761423612446,
"learning_rate": 2e-05,
"loss": 0.0717,
"step": 141
},
{
"epoch": 1.2117333333333333,
"grad_norm": 0.05628581562512457,
"learning_rate": 2e-05,
"loss": 0.1062,
"step": 142
},
{
"epoch": 1.2202666666666666,
"grad_norm": 0.06876420990437652,
"learning_rate": 2e-05,
"loss": 0.1218,
"step": 143
},
{
"epoch": 1.2288000000000001,
"grad_norm": 0.058774700501610655,
"learning_rate": 2e-05,
"loss": 0.1125,
"step": 144
},
{
"epoch": 1.2373333333333334,
"grad_norm": 0.061855922064341186,
"learning_rate": 2e-05,
"loss": 0.1295,
"step": 145
},
{
"epoch": 1.2458666666666667,
"grad_norm": 0.0813047704730138,
"learning_rate": 2e-05,
"loss": 0.1165,
"step": 146
},
{
"epoch": 1.2544,
"grad_norm": 0.061374000305305446,
"learning_rate": 2e-05,
"loss": 0.1094,
"step": 147
},
{
"epoch": 1.2629333333333332,
"grad_norm": 0.055537169110833,
"learning_rate": 2e-05,
"loss": 0.1054,
"step": 148
},
{
"epoch": 1.2714666666666667,
"grad_norm": 0.04423248714119304,
"learning_rate": 2e-05,
"loss": 0.0841,
"step": 149
},
{
"epoch": 1.28,
"grad_norm": 0.049931966607835034,
"learning_rate": 2e-05,
"loss": 0.0961,
"step": 150
},
{
"epoch": 1.2885333333333333,
"grad_norm": 0.06178656953298769,
"learning_rate": 2e-05,
"loss": 0.0854,
"step": 151
},
{
"epoch": 1.2970666666666666,
"grad_norm": 0.05783812343287897,
"learning_rate": 2e-05,
"loss": 0.1141,
"step": 152
},
{
"epoch": 1.3056,
"grad_norm": 0.048955120400167584,
"learning_rate": 2e-05,
"loss": 0.0947,
"step": 153
},
{
"epoch": 1.3141333333333334,
"grad_norm": 0.12270174746806978,
"learning_rate": 2e-05,
"loss": 0.1553,
"step": 154
},
{
"epoch": 1.3226666666666667,
"grad_norm": 0.06928026959973474,
"learning_rate": 2e-05,
"loss": 0.1274,
"step": 155
},
{
"epoch": 1.3312,
"grad_norm": 0.04756100666105405,
"learning_rate": 2e-05,
"loss": 0.0893,
"step": 156
},
{
"epoch": 1.3397333333333332,
"grad_norm": 0.056054951338196934,
"learning_rate": 2e-05,
"loss": 0.0831,
"step": 157
},
{
"epoch": 1.3482666666666667,
"grad_norm": 0.0516990471964239,
"learning_rate": 2e-05,
"loss": 0.0883,
"step": 158
},
{
"epoch": 1.3568,
"grad_norm": 0.06011650542069954,
"learning_rate": 2e-05,
"loss": 0.0938,
"step": 159
},
{
"epoch": 1.3653333333333333,
"grad_norm": 0.051831307951873976,
"learning_rate": 2e-05,
"loss": 0.1019,
"step": 160
},
{
"epoch": 1.3738666666666668,
"grad_norm": 0.0544902702048936,
"learning_rate": 2e-05,
"loss": 0.0906,
"step": 161
},
{
"epoch": 1.3824,
"grad_norm": 0.06057617032526,
"learning_rate": 2e-05,
"loss": 0.1206,
"step": 162
},
{
"epoch": 1.3909333333333334,
"grad_norm": 0.07288058025189605,
"learning_rate": 2e-05,
"loss": 0.1175,
"step": 163
},
{
"epoch": 1.3994666666666666,
"grad_norm": 0.05639043792084219,
"learning_rate": 2e-05,
"loss": 0.1031,
"step": 164
},
{
"epoch": 1.408,
"grad_norm": 0.0586469408837505,
"learning_rate": 2e-05,
"loss": 0.1143,
"step": 165
},
{
"epoch": 1.4165333333333332,
"grad_norm": 0.059243429040783904,
"learning_rate": 2e-05,
"loss": 0.0838,
"step": 166
},
{
"epoch": 1.4250666666666667,
"grad_norm": 0.0621476448363388,
"learning_rate": 2e-05,
"loss": 0.1032,
"step": 167
},
{
"epoch": 1.4336,
"grad_norm": 0.06083867682720169,
"learning_rate": 2e-05,
"loss": 0.1119,
"step": 168
},
{
"epoch": 1.4421333333333333,
"grad_norm": 0.09583165335305677,
"learning_rate": 2e-05,
"loss": 0.1028,
"step": 169
},
{
"epoch": 1.4506666666666668,
"grad_norm": 0.06411638581314043,
"learning_rate": 2e-05,
"loss": 0.1181,
"step": 170
},
{
"epoch": 1.4592,
"grad_norm": 0.05632977234908945,
"learning_rate": 2e-05,
"loss": 0.1055,
"step": 171
},
{
"epoch": 1.4677333333333333,
"grad_norm": 0.05666068971337413,
"learning_rate": 2e-05,
"loss": 0.1116,
"step": 172
},
{
"epoch": 1.4762666666666666,
"grad_norm": 0.04502062723807536,
"learning_rate": 2e-05,
"loss": 0.0588,
"step": 173
},
{
"epoch": 1.4848,
"grad_norm": 0.05916500176868301,
"learning_rate": 2e-05,
"loss": 0.0949,
"step": 174
},
{
"epoch": 1.4933333333333334,
"grad_norm": 0.056484273808864845,
"learning_rate": 2e-05,
"loss": 0.0948,
"step": 175
},
{
"epoch": 1.5018666666666667,
"grad_norm": 0.06652084448571674,
"learning_rate": 2e-05,
"loss": 0.1086,
"step": 176
},
{
"epoch": 1.5104,
"grad_norm": 0.05400238078068516,
"learning_rate": 2e-05,
"loss": 0.0919,
"step": 177
},
{
"epoch": 1.5189333333333335,
"grad_norm": 0.04979579743346662,
"learning_rate": 2e-05,
"loss": 0.0879,
"step": 178
},
{
"epoch": 1.5274666666666668,
"grad_norm": 0.06876105414733971,
"learning_rate": 2e-05,
"loss": 0.1162,
"step": 179
},
{
"epoch": 1.536,
"grad_norm": 0.05633262015499721,
"learning_rate": 2e-05,
"loss": 0.1142,
"step": 180
},
{
"epoch": 1.5445333333333333,
"grad_norm": 0.0599508967519892,
"learning_rate": 2e-05,
"loss": 0.1073,
"step": 181
},
{
"epoch": 1.5530666666666666,
"grad_norm": 0.058912170976454126,
"learning_rate": 2e-05,
"loss": 0.1102,
"step": 182
},
{
"epoch": 1.5615999999999999,
"grad_norm": 0.05361414988566254,
"learning_rate": 2e-05,
"loss": 0.0885,
"step": 183
},
{
"epoch": 1.5701333333333334,
"grad_norm": 0.04517277847384077,
"learning_rate": 2e-05,
"loss": 0.0763,
"step": 184
},
{
"epoch": 1.5786666666666667,
"grad_norm": 0.05551553662051771,
"learning_rate": 2e-05,
"loss": 0.0877,
"step": 185
},
{
"epoch": 1.5872000000000002,
"grad_norm": 0.05814223969236194,
"learning_rate": 2e-05,
"loss": 0.1044,
"step": 186
},
{
"epoch": 1.5957333333333334,
"grad_norm": 0.05710054166191597,
"learning_rate": 2e-05,
"loss": 0.0962,
"step": 187
},
{
"epoch": 1.6042666666666667,
"grad_norm": 0.054744343932104075,
"learning_rate": 2e-05,
"loss": 0.0873,
"step": 188
},
{
"epoch": 1.6128,
"grad_norm": 0.051145521687090995,
"learning_rate": 2e-05,
"loss": 0.0855,
"step": 189
},
{
"epoch": 1.6213333333333333,
"grad_norm": 0.05414658860737789,
"learning_rate": 2e-05,
"loss": 0.0872,
"step": 190
},
{
"epoch": 1.6298666666666666,
"grad_norm": 0.05084744595533029,
"learning_rate": 2e-05,
"loss": 0.0891,
"step": 191
},
{
"epoch": 1.6383999999999999,
"grad_norm": 0.0567070082820597,
"learning_rate": 2e-05,
"loss": 0.0965,
"step": 192
},
{
"epoch": 1.6469333333333334,
"grad_norm": 0.0494785311411315,
"learning_rate": 2e-05,
"loss": 0.0941,
"step": 193
},
{
"epoch": 1.6554666666666666,
"grad_norm": 0.062341158530385396,
"learning_rate": 2e-05,
"loss": 0.1154,
"step": 194
},
{
"epoch": 1.6640000000000001,
"grad_norm": 0.059888336716275685,
"learning_rate": 2e-05,
"loss": 0.1037,
"step": 195
},
{
"epoch": 1.6725333333333334,
"grad_norm": 0.07346562318829057,
"learning_rate": 2e-05,
"loss": 0.1329,
"step": 196
},
{
"epoch": 1.6810666666666667,
"grad_norm": 0.0792360016934733,
"learning_rate": 2e-05,
"loss": 0.1392,
"step": 197
},
{
"epoch": 1.6896,
"grad_norm": 0.0800342963229883,
"learning_rate": 2e-05,
"loss": 0.1199,
"step": 198
},
{
"epoch": 1.6981333333333333,
"grad_norm": 0.06848045933195548,
"learning_rate": 2e-05,
"loss": 0.0998,
"step": 199
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.05743199019316764,
"learning_rate": 2e-05,
"loss": 0.0811,
"step": 200
},
{
"epoch": 1.7151999999999998,
"grad_norm": 0.07170531168284446,
"learning_rate": 2e-05,
"loss": 0.1079,
"step": 201
},
{
"epoch": 1.7237333333333333,
"grad_norm": 0.05772905481368506,
"learning_rate": 2e-05,
"loss": 0.0844,
"step": 202
},
{
"epoch": 1.7322666666666666,
"grad_norm": 0.07504946014098464,
"learning_rate": 2e-05,
"loss": 0.1257,
"step": 203
},
{
"epoch": 1.7408000000000001,
"grad_norm": 0.06450179819785838,
"learning_rate": 2e-05,
"loss": 0.1104,
"step": 204
},
{
"epoch": 1.7493333333333334,
"grad_norm": 0.06595445965110332,
"learning_rate": 2e-05,
"loss": 0.093,
"step": 205
},
{
"epoch": 1.7578666666666667,
"grad_norm": 0.07203558121131749,
"learning_rate": 2e-05,
"loss": 0.1117,
"step": 206
},
{
"epoch": 1.7664,
"grad_norm": 0.05954646782409283,
"learning_rate": 2e-05,
"loss": 0.0729,
"step": 207
},
{
"epoch": 1.7749333333333333,
"grad_norm": 0.06624894584410884,
"learning_rate": 2e-05,
"loss": 0.0998,
"step": 208
},
{
"epoch": 1.7834666666666665,
"grad_norm": 0.06888562028256219,
"learning_rate": 2e-05,
"loss": 0.1398,
"step": 209
},
{
"epoch": 1.792,
"grad_norm": 0.061224088077794406,
"learning_rate": 2e-05,
"loss": 0.1112,
"step": 210
},
{
"epoch": 1.8005333333333333,
"grad_norm": 0.06857358883856608,
"learning_rate": 2e-05,
"loss": 0.1293,
"step": 211
},
{
"epoch": 1.8090666666666668,
"grad_norm": 0.06177352416779139,
"learning_rate": 2e-05,
"loss": 0.0884,
"step": 212
},
{
"epoch": 1.8176,
"grad_norm": 0.08324567429925228,
"learning_rate": 2e-05,
"loss": 0.1127,
"step": 213
},
{
"epoch": 1.8261333333333334,
"grad_norm": 0.06771677297787752,
"learning_rate": 2e-05,
"loss": 0.089,
"step": 214
},
{
"epoch": 1.8346666666666667,
"grad_norm": 0.07055754809472485,
"learning_rate": 2e-05,
"loss": 0.1206,
"step": 215
},
{
"epoch": 1.8432,
"grad_norm": 0.05856797724392531,
"learning_rate": 2e-05,
"loss": 0.0893,
"step": 216
},
{
"epoch": 1.8517333333333332,
"grad_norm": 0.07555286129801597,
"learning_rate": 2e-05,
"loss": 0.0913,
"step": 217
},
{
"epoch": 1.8602666666666665,
"grad_norm": 0.09242462538643775,
"learning_rate": 2e-05,
"loss": 0.1241,
"step": 218
},
{
"epoch": 1.8688,
"grad_norm": 0.06550805537088374,
"learning_rate": 2e-05,
"loss": 0.0819,
"step": 219
},
{
"epoch": 1.8773333333333333,
"grad_norm": 0.06016048263236861,
"learning_rate": 2e-05,
"loss": 0.0955,
"step": 220
},
{
"epoch": 1.8858666666666668,
"grad_norm": 0.06856661106001445,
"learning_rate": 2e-05,
"loss": 0.1132,
"step": 221
},
{
"epoch": 1.8944,
"grad_norm": 0.06383306455000529,
"learning_rate": 2e-05,
"loss": 0.1086,
"step": 222
},
{
"epoch": 1.9029333333333334,
"grad_norm": 0.07240472757239624,
"learning_rate": 2e-05,
"loss": 0.0863,
"step": 223
},
{
"epoch": 1.9114666666666666,
"grad_norm": 0.07845654471077741,
"learning_rate": 2e-05,
"loss": 0.1284,
"step": 224
},
{
"epoch": 1.92,
"grad_norm": 0.07192185833649212,
"learning_rate": 2e-05,
"loss": 0.1101,
"step": 225
},
{
"epoch": 1.9285333333333332,
"grad_norm": 0.06390598005596872,
"learning_rate": 2e-05,
"loss": 0.0917,
"step": 226
},
{
"epoch": 1.9370666666666667,
"grad_norm": 0.06306138712432224,
"learning_rate": 2e-05,
"loss": 0.0936,
"step": 227
},
{
"epoch": 1.9456,
"grad_norm": 0.06771381941296478,
"learning_rate": 2e-05,
"loss": 0.0936,
"step": 228
},
{
"epoch": 1.9541333333333335,
"grad_norm": 0.05899006803461524,
"learning_rate": 2e-05,
"loss": 0.0782,
"step": 229
},
{
"epoch": 1.9626666666666668,
"grad_norm": 0.07426956281950735,
"learning_rate": 2e-05,
"loss": 0.1095,
"step": 230
},
{
"epoch": 1.9712,
"grad_norm": 0.06567534902293475,
"learning_rate": 2e-05,
"loss": 0.0956,
"step": 231
},
{
"epoch": 1.9797333333333333,
"grad_norm": 0.07430395142282198,
"learning_rate": 2e-05,
"loss": 0.0957,
"step": 232
},
{
"epoch": 1.9882666666666666,
"grad_norm": 0.05834447367264806,
"learning_rate": 2e-05,
"loss": 0.0767,
"step": 233
},
{
"epoch": 1.9968,
"grad_norm": 0.07137090413877054,
"learning_rate": 2e-05,
"loss": 0.0821,
"step": 234
},
{
"epoch": 2.005333333333333,
"grad_norm": 0.07797914240805551,
"learning_rate": 2e-05,
"loss": 0.1175,
"step": 235
},
{
"epoch": 2.0138666666666665,
"grad_norm": 0.09335648879374187,
"learning_rate": 2e-05,
"loss": 0.1632,
"step": 236
},
{
"epoch": 2.0224,
"grad_norm": 0.08280719749100944,
"learning_rate": 2e-05,
"loss": 0.115,
"step": 237
},
{
"epoch": 2.0309333333333335,
"grad_norm": 0.08956213539053312,
"learning_rate": 2e-05,
"loss": 0.109,
"step": 238
},
{
"epoch": 2.0394666666666668,
"grad_norm": 0.08849786687188893,
"learning_rate": 2e-05,
"loss": 0.1234,
"step": 239
},
{
"epoch": 2.048,
"grad_norm": 0.16956065138312856,
"learning_rate": 2e-05,
"loss": 0.1055,
"step": 240
},
{
"epoch": 2.0565333333333333,
"grad_norm": 0.07377723133015779,
"learning_rate": 2e-05,
"loss": 0.1068,
"step": 241
},
{
"epoch": 2.0650666666666666,
"grad_norm": 0.08839651322303756,
"learning_rate": 2e-05,
"loss": 0.0965,
"step": 242
},
{
"epoch": 2.0736,
"grad_norm": 0.10641135540308218,
"learning_rate": 2e-05,
"loss": 0.0887,
"step": 243
},
{
"epoch": 2.082133333333333,
"grad_norm": 0.09370442613891326,
"learning_rate": 2e-05,
"loss": 0.0931,
"step": 244
},
{
"epoch": 2.0906666666666665,
"grad_norm": 0.08988093042206098,
"learning_rate": 2e-05,
"loss": 0.1201,
"step": 245
},
{
"epoch": 2.0992,
"grad_norm": 0.07167309696967938,
"learning_rate": 2e-05,
"loss": 0.0747,
"step": 246
},
{
"epoch": 2.1077333333333335,
"grad_norm": 0.08822161286881192,
"learning_rate": 2e-05,
"loss": 0.1044,
"step": 247
},
{
"epoch": 2.1162666666666667,
"grad_norm": 0.08439713613775747,
"learning_rate": 2e-05,
"loss": 0.1063,
"step": 248
},
{
"epoch": 2.1248,
"grad_norm": 0.0942232139678121,
"learning_rate": 2e-05,
"loss": 0.0865,
"step": 249
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.1066306844906037,
"learning_rate": 2e-05,
"loss": 0.1198,
"step": 250
},
{
"epoch": 2.1418666666666666,
"grad_norm": 0.10435492421714423,
"learning_rate": 2e-05,
"loss": 0.0968,
"step": 251
},
{
"epoch": 2.1504,
"grad_norm": 0.10513719348492025,
"learning_rate": 2e-05,
"loss": 0.1045,
"step": 252
},
{
"epoch": 2.158933333333333,
"grad_norm": 0.12580299248756027,
"learning_rate": 2e-05,
"loss": 0.0941,
"step": 253
},
{
"epoch": 2.167466666666667,
"grad_norm": 0.10265943183351584,
"learning_rate": 2e-05,
"loss": 0.0892,
"step": 254
},
{
"epoch": 2.176,
"grad_norm": 0.09473119803029131,
"learning_rate": 2e-05,
"loss": 0.0721,
"step": 255
},
{
"epoch": 2.1845333333333334,
"grad_norm": 0.13420988295622846,
"learning_rate": 2e-05,
"loss": 0.1034,
"step": 256
},
{
"epoch": 2.1930666666666667,
"grad_norm": 0.11474592330595303,
"learning_rate": 2e-05,
"loss": 0.1095,
"step": 257
},
{
"epoch": 2.2016,
"grad_norm": 0.12382914500613644,
"learning_rate": 2e-05,
"loss": 0.0947,
"step": 258
},
{
"epoch": 2.2101333333333333,
"grad_norm": 0.12984065755657193,
"learning_rate": 2e-05,
"loss": 0.0888,
"step": 259
},
{
"epoch": 2.2186666666666666,
"grad_norm": 0.14210964340218168,
"learning_rate": 2e-05,
"loss": 0.105,
"step": 260
},
{
"epoch": 2.2272,
"grad_norm": 0.13862185852250883,
"learning_rate": 2e-05,
"loss": 0.0876,
"step": 261
},
{
"epoch": 2.235733333333333,
"grad_norm": 0.17284047904822364,
"learning_rate": 2e-05,
"loss": 0.0935,
"step": 262
},
{
"epoch": 2.244266666666667,
"grad_norm": 0.1409465306152598,
"learning_rate": 2e-05,
"loss": 0.1032,
"step": 263
},
{
"epoch": 2.2528,
"grad_norm": 0.15551418258816738,
"learning_rate": 2e-05,
"loss": 0.0871,
"step": 264
},
{
"epoch": 2.2613333333333334,
"grad_norm": 0.1741617194945442,
"learning_rate": 2e-05,
"loss": 0.098,
"step": 265
},
{
"epoch": 2.2698666666666667,
"grad_norm": 0.18387218423978585,
"learning_rate": 2e-05,
"loss": 0.1168,
"step": 266
},
{
"epoch": 2.2784,
"grad_norm": 0.21744684782545962,
"learning_rate": 2e-05,
"loss": 0.1061,
"step": 267
},
{
"epoch": 2.2869333333333333,
"grad_norm": 0.17372673806896413,
"learning_rate": 2e-05,
"loss": 0.0927,
"step": 268
},
{
"epoch": 2.2954666666666665,
"grad_norm": 0.20890400134226653,
"learning_rate": 2e-05,
"loss": 0.0874,
"step": 269
},
{
"epoch": 2.304,
"grad_norm": 0.20279172920289834,
"learning_rate": 2e-05,
"loss": 0.0807,
"step": 270
},
{
"epoch": 2.3125333333333336,
"grad_norm": 0.23060543242200862,
"learning_rate": 2e-05,
"loss": 0.0937,
"step": 271
},
{
"epoch": 2.321066666666667,
"grad_norm": 0.2866337268131343,
"learning_rate": 2e-05,
"loss": 0.0886,
"step": 272
},
{
"epoch": 2.3296,
"grad_norm": 0.3203014162518504,
"learning_rate": 2e-05,
"loss": 0.0741,
"step": 273
},
{
"epoch": 2.3381333333333334,
"grad_norm": 0.2702455454246614,
"learning_rate": 2e-05,
"loss": 0.0692,
"step": 274
},
{
"epoch": 2.3466666666666667,
"grad_norm": 0.30682595841991545,
"learning_rate": 2e-05,
"loss": 0.0733,
"step": 275
},
{
"epoch": 2.3552,
"grad_norm": 0.2844580109974713,
"learning_rate": 2e-05,
"loss": 0.0979,
"step": 276
},
{
"epoch": 2.3637333333333332,
"grad_norm": 0.31296149985818705,
"learning_rate": 2e-05,
"loss": 0.093,
"step": 277
},
{
"epoch": 2.3722666666666665,
"grad_norm": 0.24448590086634314,
"learning_rate": 2e-05,
"loss": 0.1078,
"step": 278
},
{
"epoch": 2.3808,
"grad_norm": 0.17626685777153123,
"learning_rate": 2e-05,
"loss": 0.0939,
"step": 279
},
{
"epoch": 2.389333333333333,
"grad_norm": 0.13337416253457104,
"learning_rate": 2e-05,
"loss": 0.0812,
"step": 280
}
],
"logging_steps": 1,
"max_steps": 351,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 20,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 4.004836973419168e+18,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}