|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 2.389333333333333, |
|
"eval_steps": 500, |
|
"global_step": 280, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008533333333333334, |
|
"grad_norm": 100.21848203113535, |
|
"learning_rate": 0.0, |
|
"loss": 7.1962, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.017066666666666667, |
|
"grad_norm": 96.43006188910957, |
|
"learning_rate": 3.0102999566398115e-06, |
|
"loss": 6.9414, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.0256, |
|
"grad_norm": 97.35803466618715, |
|
"learning_rate": 4.771212547196624e-06, |
|
"loss": 7.0102, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.034133333333333335, |
|
"grad_norm": 95.14837816372646, |
|
"learning_rate": 6.020599913279623e-06, |
|
"loss": 6.5295, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 91.76544275692784, |
|
"learning_rate": 6.989700043360187e-06, |
|
"loss": 6.4806, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.0512, |
|
"grad_norm": 84.4494318688335, |
|
"learning_rate": 7.781512503836437e-06, |
|
"loss": 6.4194, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.05973333333333333, |
|
"grad_norm": 71.37977490595638, |
|
"learning_rate": 8.450980400142568e-06, |
|
"loss": 5.4953, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.06826666666666667, |
|
"grad_norm": 49.31153456754566, |
|
"learning_rate": 9.030899869919434e-06, |
|
"loss": 5.4123, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.0768, |
|
"grad_norm": 20.37296364560341, |
|
"learning_rate": 9.542425094393249e-06, |
|
"loss": 5.2334, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 7.968467079076881, |
|
"learning_rate": 9.999999999999999e-06, |
|
"loss": 5.0282, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.09386666666666667, |
|
"grad_norm": 3.559446532055649, |
|
"learning_rate": 1.041392685158225e-05, |
|
"loss": 4.612, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.1024, |
|
"grad_norm": 3.5528846947995674, |
|
"learning_rate": 1.0791812460476248e-05, |
|
"loss": 4.9475, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.11093333333333333, |
|
"grad_norm": 3.541968897471334, |
|
"learning_rate": 1.1139433523068365e-05, |
|
"loss": 4.2777, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.11946666666666667, |
|
"grad_norm": 3.54718070036198, |
|
"learning_rate": 1.1461280356782378e-05, |
|
"loss": 4.3507, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 3.8632334830606747, |
|
"learning_rate": 1.1760912590556813e-05, |
|
"loss": 4.5364, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.13653333333333334, |
|
"grad_norm": 3.6637424744054004, |
|
"learning_rate": 1.2041199826559246e-05, |
|
"loss": 3.9672, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.14506666666666668, |
|
"grad_norm": 3.919802904818311, |
|
"learning_rate": 1.230448921378274e-05, |
|
"loss": 4.0618, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.1536, |
|
"grad_norm": 4.71904950738746, |
|
"learning_rate": 1.2552725051033058e-05, |
|
"loss": 4.6656, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.16213333333333332, |
|
"grad_norm": 4.6656317698690835, |
|
"learning_rate": 1.2787536009528288e-05, |
|
"loss": 4.1131, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 5.145138692367417, |
|
"learning_rate": 1.301029995663981e-05, |
|
"loss": 4.0989, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.1792, |
|
"grad_norm": 5.923538014759818, |
|
"learning_rate": 1.3222192947339192e-05, |
|
"loss": 4.4991, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.18773333333333334, |
|
"grad_norm": 5.941056962941364, |
|
"learning_rate": 1.3424226808222062e-05, |
|
"loss": 4.0836, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.19626666666666667, |
|
"grad_norm": 6.171026012117947, |
|
"learning_rate": 1.3617278360175927e-05, |
|
"loss": 3.6861, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.2048, |
|
"grad_norm": 7.130542138930838, |
|
"learning_rate": 1.380211241711606e-05, |
|
"loss": 4.0958, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 7.328837606110418, |
|
"learning_rate": 1.3979400086720374e-05, |
|
"loss": 3.9524, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.22186666666666666, |
|
"grad_norm": 6.923489005711429, |
|
"learning_rate": 1.4149733479708178e-05, |
|
"loss": 3.6062, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.2304, |
|
"grad_norm": 6.409498926059221, |
|
"learning_rate": 1.4313637641589872e-05, |
|
"loss": 3.2034, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.23893333333333333, |
|
"grad_norm": 5.781628405584682, |
|
"learning_rate": 1.4471580313422191e-05, |
|
"loss": 2.8158, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.24746666666666667, |
|
"grad_norm": 6.2927590068243315, |
|
"learning_rate": 1.4623979978989559e-05, |
|
"loss": 2.9803, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 6.103844678630006, |
|
"learning_rate": 1.4771212547196623e-05, |
|
"loss": 2.847, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.26453333333333334, |
|
"grad_norm": 7.656341925867144, |
|
"learning_rate": 1.4913616938342726e-05, |
|
"loss": 3.0907, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.2730666666666667, |
|
"grad_norm": 6.324242877501844, |
|
"learning_rate": 1.5051499783199059e-05, |
|
"loss": 2.3467, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.2816, |
|
"grad_norm": 7.606313101162739, |
|
"learning_rate": 1.5185139398778874e-05, |
|
"loss": 2.5292, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.29013333333333335, |
|
"grad_norm": 8.553792493849265, |
|
"learning_rate": 1.531478917042255e-05, |
|
"loss": 2.4547, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.2986666666666667, |
|
"grad_norm": 8.483368703272543, |
|
"learning_rate": 1.5440680443502753e-05, |
|
"loss": 2.1956, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.3072, |
|
"grad_norm": 8.364739352838077, |
|
"learning_rate": 1.5563025007672873e-05, |
|
"loss": 1.8552, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.3157333333333333, |
|
"grad_norm": 9.37663682000104, |
|
"learning_rate": 1.5682017240669948e-05, |
|
"loss": 1.9228, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.32426666666666665, |
|
"grad_norm": 9.823047193440066, |
|
"learning_rate": 1.57978359661681e-05, |
|
"loss": 1.7033, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.3328, |
|
"grad_norm": 9.692618512955894, |
|
"learning_rate": 1.591064607026499e-05, |
|
"loss": 1.3768, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.3413333333333333, |
|
"grad_norm": 9.08889021911031, |
|
"learning_rate": 1.6020599913279622e-05, |
|
"loss": 1.3015, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.34986666666666666, |
|
"grad_norm": 8.081534221516058, |
|
"learning_rate": 1.6127838567197353e-05, |
|
"loss": 0.9228, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 0.3584, |
|
"grad_norm": 6.238638048950311, |
|
"learning_rate": 1.6232492903979005e-05, |
|
"loss": 0.7267, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 0.36693333333333333, |
|
"grad_norm": 3.4058036861773604, |
|
"learning_rate": 1.6334684555795865e-05, |
|
"loss": 0.5875, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 0.37546666666666667, |
|
"grad_norm": 2.079163829467713, |
|
"learning_rate": 1.6434526764861872e-05, |
|
"loss": 0.6355, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 0.384, |
|
"grad_norm": 1.5597487833024746, |
|
"learning_rate": 1.6532125137753435e-05, |
|
"loss": 0.5106, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 0.39253333333333335, |
|
"grad_norm": 2.491689602375256, |
|
"learning_rate": 1.662757831681574e-05, |
|
"loss": 0.6454, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 0.4010666666666667, |
|
"grad_norm": 2.010880438195854, |
|
"learning_rate": 1.672097857935717e-05, |
|
"loss": 0.4757, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 0.4096, |
|
"grad_norm": 1.9452805114322096, |
|
"learning_rate": 1.681241237375587e-05, |
|
"loss": 0.4133, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 0.41813333333333336, |
|
"grad_norm": 1.7620848552306103, |
|
"learning_rate": 1.6901960800285137e-05, |
|
"loss": 0.4004, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 1.278224489774809, |
|
"learning_rate": 1.6989700043360187e-05, |
|
"loss": 0.3523, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.4352, |
|
"grad_norm": 1.6151354758303231, |
|
"learning_rate": 1.7075701760979363e-05, |
|
"loss": 0.4317, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 0.4437333333333333, |
|
"grad_norm": 1.3451396055695035, |
|
"learning_rate": 1.716003343634799e-05, |
|
"loss": 0.3474, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 0.45226666666666665, |
|
"grad_norm": 1.6814977782362666, |
|
"learning_rate": 1.724275869600789e-05, |
|
"loss": 0.3706, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 0.4608, |
|
"grad_norm": 1.1682442432688667, |
|
"learning_rate": 1.7323937598229687e-05, |
|
"loss": 0.3488, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 0.4693333333333333, |
|
"grad_norm": 0.8839814540462471, |
|
"learning_rate": 1.7403626894942437e-05, |
|
"loss": 0.293, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 0.47786666666666666, |
|
"grad_norm": 0.7974304806295485, |
|
"learning_rate": 1.7481880270062003e-05, |
|
"loss": 0.2717, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 0.4864, |
|
"grad_norm": 0.6232203657585239, |
|
"learning_rate": 1.7558748556724913e-05, |
|
"loss": 0.1741, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 0.49493333333333334, |
|
"grad_norm": 0.6850688604563008, |
|
"learning_rate": 1.763427993562937e-05, |
|
"loss": 0.228, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 0.5034666666666666, |
|
"grad_norm": 0.5923826384300431, |
|
"learning_rate": 1.7708520116421443e-05, |
|
"loss": 0.2131, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 0.512, |
|
"grad_norm": 0.489754430485032, |
|
"learning_rate": 1.7781512503836432e-05, |
|
"loss": 0.165, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.5205333333333333, |
|
"grad_norm": 0.5280940052395061, |
|
"learning_rate": 1.7853298350107667e-05, |
|
"loss": 0.1658, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 0.5290666666666667, |
|
"grad_norm": 0.4750905992036739, |
|
"learning_rate": 1.7923916894982537e-05, |
|
"loss": 0.1438, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 0.5376, |
|
"grad_norm": 0.4162998392722401, |
|
"learning_rate": 1.7993405494535815e-05, |
|
"loss": 0.1555, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 0.5461333333333334, |
|
"grad_norm": 0.26863266246370443, |
|
"learning_rate": 1.806179973983887e-05, |
|
"loss": 0.1323, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.5546666666666666, |
|
"grad_norm": 0.26534221125601215, |
|
"learning_rate": 1.8129133566428553e-05, |
|
"loss": 0.1671, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 0.5632, |
|
"grad_norm": 0.2548662962257576, |
|
"learning_rate": 1.8195439355418686e-05, |
|
"loss": 0.1308, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 0.5717333333333333, |
|
"grad_norm": 0.18045394638578796, |
|
"learning_rate": 1.8260748027008263e-05, |
|
"loss": 0.1262, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 0.5802666666666667, |
|
"grad_norm": 0.17070388073612064, |
|
"learning_rate": 1.8325089127062364e-05, |
|
"loss": 0.1192, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 0.5888, |
|
"grad_norm": 0.1531381679244776, |
|
"learning_rate": 1.8388490907372553e-05, |
|
"loss": 0.1274, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 0.5973333333333334, |
|
"grad_norm": 0.18196434993687946, |
|
"learning_rate": 1.8450980400142568e-05, |
|
"loss": 0.1375, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.6058666666666667, |
|
"grad_norm": 0.15324416972951205, |
|
"learning_rate": 1.8512583487190752e-05, |
|
"loss": 0.1599, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 0.6144, |
|
"grad_norm": 0.10884462064503801, |
|
"learning_rate": 1.857332496431268e-05, |
|
"loss": 0.1041, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 0.6229333333333333, |
|
"grad_norm": 0.12915133528192668, |
|
"learning_rate": 1.8633228601204555e-05, |
|
"loss": 0.1406, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 0.6314666666666666, |
|
"grad_norm": 0.12553425699952878, |
|
"learning_rate": 1.8692317197309763e-05, |
|
"loss": 0.1256, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 0.11976960918968543, |
|
"learning_rate": 1.8750612633916997e-05, |
|
"loss": 0.1144, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.6485333333333333, |
|
"grad_norm": 0.115805998298789, |
|
"learning_rate": 1.8808135922807914e-05, |
|
"loss": 0.1528, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 0.6570666666666667, |
|
"grad_norm": 0.10325948496697443, |
|
"learning_rate": 1.8864907251724818e-05, |
|
"loss": 0.1044, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 0.6656, |
|
"grad_norm": 0.09595064346541006, |
|
"learning_rate": 1.8920946026904802e-05, |
|
"loss": 0.1534, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 0.6741333333333334, |
|
"grad_norm": 0.08796742845240496, |
|
"learning_rate": 1.8976270912904414e-05, |
|
"loss": 0.1155, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 0.6826666666666666, |
|
"grad_norm": 0.08218991738379527, |
|
"learning_rate": 1.9030899869919434e-05, |
|
"loss": 0.1311, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.6912, |
|
"grad_norm": 0.08290815261109215, |
|
"learning_rate": 1.9084850188786497e-05, |
|
"loss": 0.11, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 0.6997333333333333, |
|
"grad_norm": 0.0794132180176064, |
|
"learning_rate": 1.9138138523837165e-05, |
|
"loss": 0.1135, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 0.7082666666666667, |
|
"grad_norm": 0.06934410705255296, |
|
"learning_rate": 1.919078092376074e-05, |
|
"loss": 0.109, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 0.7168, |
|
"grad_norm": 0.09000563031870593, |
|
"learning_rate": 1.9242792860618813e-05, |
|
"loss": 0.12, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 0.7253333333333334, |
|
"grad_norm": 0.1134042277879818, |
|
"learning_rate": 1.929418925714293e-05, |
|
"loss": 0.1223, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 0.7338666666666667, |
|
"grad_norm": 0.09118764690233076, |
|
"learning_rate": 1.9344984512435673e-05, |
|
"loss": 0.1459, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 0.7424, |
|
"grad_norm": 0.07873016754353963, |
|
"learning_rate": 1.9395192526186183e-05, |
|
"loss": 0.1422, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 0.7509333333333333, |
|
"grad_norm": 0.1796495874463076, |
|
"learning_rate": 1.9444826721501687e-05, |
|
"loss": 0.1291, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 0.7594666666666666, |
|
"grad_norm": 0.0679589944174269, |
|
"learning_rate": 1.9493900066449125e-05, |
|
"loss": 0.108, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 0.768, |
|
"grad_norm": 0.08174688574235538, |
|
"learning_rate": 1.9542425094393246e-05, |
|
"loss": 0.1081, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.7765333333333333, |
|
"grad_norm": 0.057137370501406756, |
|
"learning_rate": 1.9590413923210934e-05, |
|
"loss": 0.0934, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 0.7850666666666667, |
|
"grad_norm": 0.06578111924908255, |
|
"learning_rate": 1.9637878273455555e-05, |
|
"loss": 0.1085, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 0.7936, |
|
"grad_norm": 0.08945990540906254, |
|
"learning_rate": 1.968482948553935e-05, |
|
"loss": 0.1747, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 0.8021333333333334, |
|
"grad_norm": 0.06183863311044229, |
|
"learning_rate": 1.9731278535996986e-05, |
|
"loss": 0.1136, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 0.8106666666666666, |
|
"grad_norm": 0.05777899602544702, |
|
"learning_rate": 1.9777236052888476e-05, |
|
"loss": 0.0984, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 0.8192, |
|
"grad_norm": 0.08130851607693534, |
|
"learning_rate": 1.9822712330395683e-05, |
|
"loss": 0.187, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 0.8277333333333333, |
|
"grad_norm": 0.06426546202002927, |
|
"learning_rate": 1.986771734266245e-05, |
|
"loss": 0.1296, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 0.8362666666666667, |
|
"grad_norm": 0.069692313707994, |
|
"learning_rate": 1.991226075692495e-05, |
|
"loss": 0.1404, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 0.8448, |
|
"grad_norm": 0.05494542266886729, |
|
"learning_rate": 1.9956351945975496e-05, |
|
"loss": 0.116, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 0.8533333333333334, |
|
"grad_norm": 0.07571686966840627, |
|
"learning_rate": 1.9999999999999998e-05, |
|
"loss": 0.1539, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.8618666666666667, |
|
"grad_norm": 0.054351059117603705, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1037, |
|
"step": 101 |
|
}, |
|
{ |
|
"epoch": 0.8704, |
|
"grad_norm": 0.06531899611551092, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0827, |
|
"step": 102 |
|
}, |
|
{ |
|
"epoch": 0.8789333333333333, |
|
"grad_norm": 0.06131678646504652, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1266, |
|
"step": 103 |
|
}, |
|
{ |
|
"epoch": 0.8874666666666666, |
|
"grad_norm": 0.06850220540661824, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1456, |
|
"step": 104 |
|
}, |
|
{ |
|
"epoch": 0.896, |
|
"grad_norm": 0.05806908951252483, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0954, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 0.9045333333333333, |
|
"grad_norm": 0.06503642452033717, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1417, |
|
"step": 106 |
|
}, |
|
{ |
|
"epoch": 0.9130666666666667, |
|
"grad_norm": 0.050486271853277066, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0959, |
|
"step": 107 |
|
}, |
|
{ |
|
"epoch": 0.9216, |
|
"grad_norm": 0.07746063813802379, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1256, |
|
"step": 108 |
|
}, |
|
{ |
|
"epoch": 0.9301333333333334, |
|
"grad_norm": 0.051231172380840004, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1116, |
|
"step": 109 |
|
}, |
|
{ |
|
"epoch": 0.9386666666666666, |
|
"grad_norm": 0.056296443557859455, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1056, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.9472, |
|
"grad_norm": 0.05058663240713958, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0971, |
|
"step": 111 |
|
}, |
|
{ |
|
"epoch": 0.9557333333333333, |
|
"grad_norm": 0.05532886570130611, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1086, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 0.9642666666666667, |
|
"grad_norm": 0.05327811326654907, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0989, |
|
"step": 113 |
|
}, |
|
{ |
|
"epoch": 0.9728, |
|
"grad_norm": 0.05663279364147864, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0958, |
|
"step": 114 |
|
}, |
|
{ |
|
"epoch": 0.9813333333333333, |
|
"grad_norm": 0.04930904541225805, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0887, |
|
"step": 115 |
|
}, |
|
{ |
|
"epoch": 0.9898666666666667, |
|
"grad_norm": 0.06096947951115022, |
|
"learning_rate": 2e-05, |
|
"loss": 0.106, |
|
"step": 116 |
|
}, |
|
{ |
|
"epoch": 0.9984, |
|
"grad_norm": 0.050092322361182495, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0931, |
|
"step": 117 |
|
}, |
|
{ |
|
"epoch": 1.0069333333333332, |
|
"grad_norm": 0.04980408443758999, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0955, |
|
"step": 118 |
|
}, |
|
{ |
|
"epoch": 1.0154666666666667, |
|
"grad_norm": 0.051183082721834305, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1049, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 1.024, |
|
"grad_norm": 0.04332220265802814, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0983, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 1.0325333333333333, |
|
"grad_norm": 0.07211731499677299, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1386, |
|
"step": 121 |
|
}, |
|
{ |
|
"epoch": 1.0410666666666666, |
|
"grad_norm": 0.06550870223740553, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1334, |
|
"step": 122 |
|
}, |
|
{ |
|
"epoch": 1.0496, |
|
"grad_norm": 0.05331839690767287, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1014, |
|
"step": 123 |
|
}, |
|
{ |
|
"epoch": 1.0581333333333334, |
|
"grad_norm": 0.05227685628767905, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1098, |
|
"step": 124 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 0.07641693882491171, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1127, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 1.0752, |
|
"grad_norm": 0.052835367770791786, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1231, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 1.0837333333333334, |
|
"grad_norm": 0.07520329755025788, |
|
"learning_rate": 2e-05, |
|
"loss": 0.085, |
|
"step": 127 |
|
}, |
|
{ |
|
"epoch": 1.0922666666666667, |
|
"grad_norm": 0.07670066152157425, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1071, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 1.1008, |
|
"grad_norm": 0.052832906560645154, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1093, |
|
"step": 129 |
|
}, |
|
{ |
|
"epoch": 1.1093333333333333, |
|
"grad_norm": 0.06573889037311398, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1193, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 1.1178666666666666, |
|
"grad_norm": 0.05175471296566334, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1184, |
|
"step": 131 |
|
}, |
|
{ |
|
"epoch": 1.1264, |
|
"grad_norm": 0.05912231419793496, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1154, |
|
"step": 132 |
|
}, |
|
{ |
|
"epoch": 1.1349333333333333, |
|
"grad_norm": 0.04899140475981105, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0957, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 1.1434666666666666, |
|
"grad_norm": 0.05939916939142137, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0979, |
|
"step": 134 |
|
}, |
|
{ |
|
"epoch": 1.152, |
|
"grad_norm": 0.0516819217599706, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0834, |
|
"step": 135 |
|
}, |
|
{ |
|
"epoch": 1.1605333333333334, |
|
"grad_norm": 0.05456440346454737, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1183, |
|
"step": 136 |
|
}, |
|
{ |
|
"epoch": 1.1690666666666667, |
|
"grad_norm": 0.059906464476343235, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1048, |
|
"step": 137 |
|
}, |
|
{ |
|
"epoch": 1.1776, |
|
"grad_norm": 0.0720112680204319, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1168, |
|
"step": 138 |
|
}, |
|
{ |
|
"epoch": 1.1861333333333333, |
|
"grad_norm": 0.04940202805828527, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0948, |
|
"step": 139 |
|
}, |
|
{ |
|
"epoch": 1.1946666666666665, |
|
"grad_norm": 0.060088609545130046, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0952, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 1.2032, |
|
"grad_norm": 0.04694761423612446, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0717, |
|
"step": 141 |
|
}, |
|
{ |
|
"epoch": 1.2117333333333333, |
|
"grad_norm": 0.05628581562512457, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1062, |
|
"step": 142 |
|
}, |
|
{ |
|
"epoch": 1.2202666666666666, |
|
"grad_norm": 0.06876420990437652, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1218, |
|
"step": 143 |
|
}, |
|
{ |
|
"epoch": 1.2288000000000001, |
|
"grad_norm": 0.058774700501610655, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1125, |
|
"step": 144 |
|
}, |
|
{ |
|
"epoch": 1.2373333333333334, |
|
"grad_norm": 0.061855922064341186, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1295, |
|
"step": 145 |
|
}, |
|
{ |
|
"epoch": 1.2458666666666667, |
|
"grad_norm": 0.0813047704730138, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1165, |
|
"step": 146 |
|
}, |
|
{ |
|
"epoch": 1.2544, |
|
"grad_norm": 0.061374000305305446, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1094, |
|
"step": 147 |
|
}, |
|
{ |
|
"epoch": 1.2629333333333332, |
|
"grad_norm": 0.055537169110833, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1054, |
|
"step": 148 |
|
}, |
|
{ |
|
"epoch": 1.2714666666666667, |
|
"grad_norm": 0.04423248714119304, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0841, |
|
"step": 149 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"grad_norm": 0.049931966607835034, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0961, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.2885333333333333, |
|
"grad_norm": 0.06178656953298769, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0854, |
|
"step": 151 |
|
}, |
|
{ |
|
"epoch": 1.2970666666666666, |
|
"grad_norm": 0.05783812343287897, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1141, |
|
"step": 152 |
|
}, |
|
{ |
|
"epoch": 1.3056, |
|
"grad_norm": 0.048955120400167584, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0947, |
|
"step": 153 |
|
}, |
|
{ |
|
"epoch": 1.3141333333333334, |
|
"grad_norm": 0.12270174746806978, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1553, |
|
"step": 154 |
|
}, |
|
{ |
|
"epoch": 1.3226666666666667, |
|
"grad_norm": 0.06928026959973474, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1274, |
|
"step": 155 |
|
}, |
|
{ |
|
"epoch": 1.3312, |
|
"grad_norm": 0.04756100666105405, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0893, |
|
"step": 156 |
|
}, |
|
{ |
|
"epoch": 1.3397333333333332, |
|
"grad_norm": 0.056054951338196934, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0831, |
|
"step": 157 |
|
}, |
|
{ |
|
"epoch": 1.3482666666666667, |
|
"grad_norm": 0.0516990471964239, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0883, |
|
"step": 158 |
|
}, |
|
{ |
|
"epoch": 1.3568, |
|
"grad_norm": 0.06011650542069954, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0938, |
|
"step": 159 |
|
}, |
|
{ |
|
"epoch": 1.3653333333333333, |
|
"grad_norm": 0.051831307951873976, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1019, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 1.3738666666666668, |
|
"grad_norm": 0.0544902702048936, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0906, |
|
"step": 161 |
|
}, |
|
{ |
|
"epoch": 1.3824, |
|
"grad_norm": 0.06057617032526, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1206, |
|
"step": 162 |
|
}, |
|
{ |
|
"epoch": 1.3909333333333334, |
|
"grad_norm": 0.07288058025189605, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1175, |
|
"step": 163 |
|
}, |
|
{ |
|
"epoch": 1.3994666666666666, |
|
"grad_norm": 0.05639043792084219, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1031, |
|
"step": 164 |
|
}, |
|
{ |
|
"epoch": 1.408, |
|
"grad_norm": 0.0586469408837505, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1143, |
|
"step": 165 |
|
}, |
|
{ |
|
"epoch": 1.4165333333333332, |
|
"grad_norm": 0.059243429040783904, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0838, |
|
"step": 166 |
|
}, |
|
{ |
|
"epoch": 1.4250666666666667, |
|
"grad_norm": 0.0621476448363388, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1032, |
|
"step": 167 |
|
}, |
|
{ |
|
"epoch": 1.4336, |
|
"grad_norm": 0.06083867682720169, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1119, |
|
"step": 168 |
|
}, |
|
{ |
|
"epoch": 1.4421333333333333, |
|
"grad_norm": 0.09583165335305677, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1028, |
|
"step": 169 |
|
}, |
|
{ |
|
"epoch": 1.4506666666666668, |
|
"grad_norm": 0.06411638581314043, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1181, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 1.4592, |
|
"grad_norm": 0.05632977234908945, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1055, |
|
"step": 171 |
|
}, |
|
{ |
|
"epoch": 1.4677333333333333, |
|
"grad_norm": 0.05666068971337413, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1116, |
|
"step": 172 |
|
}, |
|
{ |
|
"epoch": 1.4762666666666666, |
|
"grad_norm": 0.04502062723807536, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0588, |
|
"step": 173 |
|
}, |
|
{ |
|
"epoch": 1.4848, |
|
"grad_norm": 0.05916500176868301, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0949, |
|
"step": 174 |
|
}, |
|
{ |
|
"epoch": 1.4933333333333334, |
|
"grad_norm": 0.056484273808864845, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0948, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 1.5018666666666667, |
|
"grad_norm": 0.06652084448571674, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1086, |
|
"step": 176 |
|
}, |
|
{ |
|
"epoch": 1.5104, |
|
"grad_norm": 0.05400238078068516, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0919, |
|
"step": 177 |
|
}, |
|
{ |
|
"epoch": 1.5189333333333335, |
|
"grad_norm": 0.04979579743346662, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0879, |
|
"step": 178 |
|
}, |
|
{ |
|
"epoch": 1.5274666666666668, |
|
"grad_norm": 0.06876105414733971, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1162, |
|
"step": 179 |
|
}, |
|
{ |
|
"epoch": 1.536, |
|
"grad_norm": 0.05633262015499721, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1142, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 1.5445333333333333, |
|
"grad_norm": 0.0599508967519892, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1073, |
|
"step": 181 |
|
}, |
|
{ |
|
"epoch": 1.5530666666666666, |
|
"grad_norm": 0.058912170976454126, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1102, |
|
"step": 182 |
|
}, |
|
{ |
|
"epoch": 1.5615999999999999, |
|
"grad_norm": 0.05361414988566254, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0885, |
|
"step": 183 |
|
}, |
|
{ |
|
"epoch": 1.5701333333333334, |
|
"grad_norm": 0.04517277847384077, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0763, |
|
"step": 184 |
|
}, |
|
{ |
|
"epoch": 1.5786666666666667, |
|
"grad_norm": 0.05551553662051771, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0877, |
|
"step": 185 |
|
}, |
|
{ |
|
"epoch": 1.5872000000000002, |
|
"grad_norm": 0.05814223969236194, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1044, |
|
"step": 186 |
|
}, |
|
{ |
|
"epoch": 1.5957333333333334, |
|
"grad_norm": 0.05710054166191597, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0962, |
|
"step": 187 |
|
}, |
|
{ |
|
"epoch": 1.6042666666666667, |
|
"grad_norm": 0.054744343932104075, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0873, |
|
"step": 188 |
|
}, |
|
{ |
|
"epoch": 1.6128, |
|
"grad_norm": 0.051145521687090995, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0855, |
|
"step": 189 |
|
}, |
|
{ |
|
"epoch": 1.6213333333333333, |
|
"grad_norm": 0.05414658860737789, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0872, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 1.6298666666666666, |
|
"grad_norm": 0.05084744595533029, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0891, |
|
"step": 191 |
|
}, |
|
{ |
|
"epoch": 1.6383999999999999, |
|
"grad_norm": 0.0567070082820597, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0965, |
|
"step": 192 |
|
}, |
|
{ |
|
"epoch": 1.6469333333333334, |
|
"grad_norm": 0.0494785311411315, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0941, |
|
"step": 193 |
|
}, |
|
{ |
|
"epoch": 1.6554666666666666, |
|
"grad_norm": 0.062341158530385396, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1154, |
|
"step": 194 |
|
}, |
|
{ |
|
"epoch": 1.6640000000000001, |
|
"grad_norm": 0.059888336716275685, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1037, |
|
"step": 195 |
|
}, |
|
{ |
|
"epoch": 1.6725333333333334, |
|
"grad_norm": 0.07346562318829057, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1329, |
|
"step": 196 |
|
}, |
|
{ |
|
"epoch": 1.6810666666666667, |
|
"grad_norm": 0.0792360016934733, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1392, |
|
"step": 197 |
|
}, |
|
{ |
|
"epoch": 1.6896, |
|
"grad_norm": 0.0800342963229883, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1199, |
|
"step": 198 |
|
}, |
|
{ |
|
"epoch": 1.6981333333333333, |
|
"grad_norm": 0.06848045933195548, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0998, |
|
"step": 199 |
|
}, |
|
{ |
|
"epoch": 1.7066666666666666, |
|
"grad_norm": 0.05743199019316764, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0811, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.7151999999999998, |
|
"grad_norm": 0.07170531168284446, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1079, |
|
"step": 201 |
|
}, |
|
{ |
|
"epoch": 1.7237333333333333, |
|
"grad_norm": 0.05772905481368506, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0844, |
|
"step": 202 |
|
}, |
|
{ |
|
"epoch": 1.7322666666666666, |
|
"grad_norm": 0.07504946014098464, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1257, |
|
"step": 203 |
|
}, |
|
{ |
|
"epoch": 1.7408000000000001, |
|
"grad_norm": 0.06450179819785838, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1104, |
|
"step": 204 |
|
}, |
|
{ |
|
"epoch": 1.7493333333333334, |
|
"grad_norm": 0.06595445965110332, |
|
"learning_rate": 2e-05, |
|
"loss": 0.093, |
|
"step": 205 |
|
}, |
|
{ |
|
"epoch": 1.7578666666666667, |
|
"grad_norm": 0.07203558121131749, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1117, |
|
"step": 206 |
|
}, |
|
{ |
|
"epoch": 1.7664, |
|
"grad_norm": 0.05954646782409283, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0729, |
|
"step": 207 |
|
}, |
|
{ |
|
"epoch": 1.7749333333333333, |
|
"grad_norm": 0.06624894584410884, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0998, |
|
"step": 208 |
|
}, |
|
{ |
|
"epoch": 1.7834666666666665, |
|
"grad_norm": 0.06888562028256219, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1398, |
|
"step": 209 |
|
}, |
|
{ |
|
"epoch": 1.792, |
|
"grad_norm": 0.061224088077794406, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1112, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 1.8005333333333333, |
|
"grad_norm": 0.06857358883856608, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1293, |
|
"step": 211 |
|
}, |
|
{ |
|
"epoch": 1.8090666666666668, |
|
"grad_norm": 0.06177352416779139, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0884, |
|
"step": 212 |
|
}, |
|
{ |
|
"epoch": 1.8176, |
|
"grad_norm": 0.08324567429925228, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1127, |
|
"step": 213 |
|
}, |
|
{ |
|
"epoch": 1.8261333333333334, |
|
"grad_norm": 0.06771677297787752, |
|
"learning_rate": 2e-05, |
|
"loss": 0.089, |
|
"step": 214 |
|
}, |
|
{ |
|
"epoch": 1.8346666666666667, |
|
"grad_norm": 0.07055754809472485, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1206, |
|
"step": 215 |
|
}, |
|
{ |
|
"epoch": 1.8432, |
|
"grad_norm": 0.05856797724392531, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0893, |
|
"step": 216 |
|
}, |
|
{ |
|
"epoch": 1.8517333333333332, |
|
"grad_norm": 0.07555286129801597, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0913, |
|
"step": 217 |
|
}, |
|
{ |
|
"epoch": 1.8602666666666665, |
|
"grad_norm": 0.09242462538643775, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1241, |
|
"step": 218 |
|
}, |
|
{ |
|
"epoch": 1.8688, |
|
"grad_norm": 0.06550805537088374, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0819, |
|
"step": 219 |
|
}, |
|
{ |
|
"epoch": 1.8773333333333333, |
|
"grad_norm": 0.06016048263236861, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0955, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 1.8858666666666668, |
|
"grad_norm": 0.06856661106001445, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1132, |
|
"step": 221 |
|
}, |
|
{ |
|
"epoch": 1.8944, |
|
"grad_norm": 0.06383306455000529, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1086, |
|
"step": 222 |
|
}, |
|
{ |
|
"epoch": 1.9029333333333334, |
|
"grad_norm": 0.07240472757239624, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0863, |
|
"step": 223 |
|
}, |
|
{ |
|
"epoch": 1.9114666666666666, |
|
"grad_norm": 0.07845654471077741, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1284, |
|
"step": 224 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"grad_norm": 0.07192185833649212, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1101, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 1.9285333333333332, |
|
"grad_norm": 0.06390598005596872, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0917, |
|
"step": 226 |
|
}, |
|
{ |
|
"epoch": 1.9370666666666667, |
|
"grad_norm": 0.06306138712432224, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0936, |
|
"step": 227 |
|
}, |
|
{ |
|
"epoch": 1.9456, |
|
"grad_norm": 0.06771381941296478, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0936, |
|
"step": 228 |
|
}, |
|
{ |
|
"epoch": 1.9541333333333335, |
|
"grad_norm": 0.05899006803461524, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0782, |
|
"step": 229 |
|
}, |
|
{ |
|
"epoch": 1.9626666666666668, |
|
"grad_norm": 0.07426956281950735, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1095, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 1.9712, |
|
"grad_norm": 0.06567534902293475, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0956, |
|
"step": 231 |
|
}, |
|
{ |
|
"epoch": 1.9797333333333333, |
|
"grad_norm": 0.07430395142282198, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0957, |
|
"step": 232 |
|
}, |
|
{ |
|
"epoch": 1.9882666666666666, |
|
"grad_norm": 0.05834447367264806, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0767, |
|
"step": 233 |
|
}, |
|
{ |
|
"epoch": 1.9968, |
|
"grad_norm": 0.07137090413877054, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0821, |
|
"step": 234 |
|
}, |
|
{ |
|
"epoch": 2.005333333333333, |
|
"grad_norm": 0.07797914240805551, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1175, |
|
"step": 235 |
|
}, |
|
{ |
|
"epoch": 2.0138666666666665, |
|
"grad_norm": 0.09335648879374187, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1632, |
|
"step": 236 |
|
}, |
|
{ |
|
"epoch": 2.0224, |
|
"grad_norm": 0.08280719749100944, |
|
"learning_rate": 2e-05, |
|
"loss": 0.115, |
|
"step": 237 |
|
}, |
|
{ |
|
"epoch": 2.0309333333333335, |
|
"grad_norm": 0.08956213539053312, |
|
"learning_rate": 2e-05, |
|
"loss": 0.109, |
|
"step": 238 |
|
}, |
|
{ |
|
"epoch": 2.0394666666666668, |
|
"grad_norm": 0.08849786687188893, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1234, |
|
"step": 239 |
|
}, |
|
{ |
|
"epoch": 2.048, |
|
"grad_norm": 0.16956065138312856, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1055, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 2.0565333333333333, |
|
"grad_norm": 0.07377723133015779, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1068, |
|
"step": 241 |
|
}, |
|
{ |
|
"epoch": 2.0650666666666666, |
|
"grad_norm": 0.08839651322303756, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0965, |
|
"step": 242 |
|
}, |
|
{ |
|
"epoch": 2.0736, |
|
"grad_norm": 0.10641135540308218, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0887, |
|
"step": 243 |
|
}, |
|
{ |
|
"epoch": 2.082133333333333, |
|
"grad_norm": 0.09370442613891326, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0931, |
|
"step": 244 |
|
}, |
|
{ |
|
"epoch": 2.0906666666666665, |
|
"grad_norm": 0.08988093042206098, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1201, |
|
"step": 245 |
|
}, |
|
{ |
|
"epoch": 2.0992, |
|
"grad_norm": 0.07167309696967938, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0747, |
|
"step": 246 |
|
}, |
|
{ |
|
"epoch": 2.1077333333333335, |
|
"grad_norm": 0.08822161286881192, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1044, |
|
"step": 247 |
|
}, |
|
{ |
|
"epoch": 2.1162666666666667, |
|
"grad_norm": 0.08439713613775747, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1063, |
|
"step": 248 |
|
}, |
|
{ |
|
"epoch": 2.1248, |
|
"grad_norm": 0.0942232139678121, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0865, |
|
"step": 249 |
|
}, |
|
{ |
|
"epoch": 2.1333333333333333, |
|
"grad_norm": 0.1066306844906037, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1198, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 2.1418666666666666, |
|
"grad_norm": 0.10435492421714423, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0968, |
|
"step": 251 |
|
}, |
|
{ |
|
"epoch": 2.1504, |
|
"grad_norm": 0.10513719348492025, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1045, |
|
"step": 252 |
|
}, |
|
{ |
|
"epoch": 2.158933333333333, |
|
"grad_norm": 0.12580299248756027, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0941, |
|
"step": 253 |
|
}, |
|
{ |
|
"epoch": 2.167466666666667, |
|
"grad_norm": 0.10265943183351584, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0892, |
|
"step": 254 |
|
}, |
|
{ |
|
"epoch": 2.176, |
|
"grad_norm": 0.09473119803029131, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0721, |
|
"step": 255 |
|
}, |
|
{ |
|
"epoch": 2.1845333333333334, |
|
"grad_norm": 0.13420988295622846, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1034, |
|
"step": 256 |
|
}, |
|
{ |
|
"epoch": 2.1930666666666667, |
|
"grad_norm": 0.11474592330595303, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1095, |
|
"step": 257 |
|
}, |
|
{ |
|
"epoch": 2.2016, |
|
"grad_norm": 0.12382914500613644, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0947, |
|
"step": 258 |
|
}, |
|
{ |
|
"epoch": 2.2101333333333333, |
|
"grad_norm": 0.12984065755657193, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0888, |
|
"step": 259 |
|
}, |
|
{ |
|
"epoch": 2.2186666666666666, |
|
"grad_norm": 0.14210964340218168, |
|
"learning_rate": 2e-05, |
|
"loss": 0.105, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 2.2272, |
|
"grad_norm": 0.13862185852250883, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0876, |
|
"step": 261 |
|
}, |
|
{ |
|
"epoch": 2.235733333333333, |
|
"grad_norm": 0.17284047904822364, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0935, |
|
"step": 262 |
|
}, |
|
{ |
|
"epoch": 2.244266666666667, |
|
"grad_norm": 0.1409465306152598, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1032, |
|
"step": 263 |
|
}, |
|
{ |
|
"epoch": 2.2528, |
|
"grad_norm": 0.15551418258816738, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0871, |
|
"step": 264 |
|
}, |
|
{ |
|
"epoch": 2.2613333333333334, |
|
"grad_norm": 0.1741617194945442, |
|
"learning_rate": 2e-05, |
|
"loss": 0.098, |
|
"step": 265 |
|
}, |
|
{ |
|
"epoch": 2.2698666666666667, |
|
"grad_norm": 0.18387218423978585, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1168, |
|
"step": 266 |
|
}, |
|
{ |
|
"epoch": 2.2784, |
|
"grad_norm": 0.21744684782545962, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1061, |
|
"step": 267 |
|
}, |
|
{ |
|
"epoch": 2.2869333333333333, |
|
"grad_norm": 0.17372673806896413, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0927, |
|
"step": 268 |
|
}, |
|
{ |
|
"epoch": 2.2954666666666665, |
|
"grad_norm": 0.20890400134226653, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0874, |
|
"step": 269 |
|
}, |
|
{ |
|
"epoch": 2.304, |
|
"grad_norm": 0.20279172920289834, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0807, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 2.3125333333333336, |
|
"grad_norm": 0.23060543242200862, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0937, |
|
"step": 271 |
|
}, |
|
{ |
|
"epoch": 2.321066666666667, |
|
"grad_norm": 0.2866337268131343, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0886, |
|
"step": 272 |
|
}, |
|
{ |
|
"epoch": 2.3296, |
|
"grad_norm": 0.3203014162518504, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0741, |
|
"step": 273 |
|
}, |
|
{ |
|
"epoch": 2.3381333333333334, |
|
"grad_norm": 0.2702455454246614, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0692, |
|
"step": 274 |
|
}, |
|
{ |
|
"epoch": 2.3466666666666667, |
|
"grad_norm": 0.30682595841991545, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0733, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 2.3552, |
|
"grad_norm": 0.2844580109974713, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0979, |
|
"step": 276 |
|
}, |
|
{ |
|
"epoch": 2.3637333333333332, |
|
"grad_norm": 0.31296149985818705, |
|
"learning_rate": 2e-05, |
|
"loss": 0.093, |
|
"step": 277 |
|
}, |
|
{ |
|
"epoch": 2.3722666666666665, |
|
"grad_norm": 0.24448590086634314, |
|
"learning_rate": 2e-05, |
|
"loss": 0.1078, |
|
"step": 278 |
|
}, |
|
{ |
|
"epoch": 2.3808, |
|
"grad_norm": 0.17626685777153123, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0939, |
|
"step": 279 |
|
}, |
|
{ |
|
"epoch": 2.389333333333333, |
|
"grad_norm": 0.13337416253457104, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0812, |
|
"step": 280 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 351, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 20, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 4.004836973419168e+18, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|