QJerry's picture
Upload entire folder 160 steps of 351 steps, half of 3 epochs.
aec27cf verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 0.6826666666666666,
"eval_steps": 500,
"global_step": 80,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.008533333333333334,
"grad_norm": 100.21848203113535,
"learning_rate": 0.0,
"loss": 7.1962,
"step": 1
},
{
"epoch": 0.017066666666666667,
"grad_norm": 96.43006188910957,
"learning_rate": 3.0102999566398115e-06,
"loss": 6.9414,
"step": 2
},
{
"epoch": 0.0256,
"grad_norm": 97.35803466618715,
"learning_rate": 4.771212547196624e-06,
"loss": 7.0102,
"step": 3
},
{
"epoch": 0.034133333333333335,
"grad_norm": 95.14837816372646,
"learning_rate": 6.020599913279623e-06,
"loss": 6.5295,
"step": 4
},
{
"epoch": 0.042666666666666665,
"grad_norm": 91.76544275692784,
"learning_rate": 6.989700043360187e-06,
"loss": 6.4806,
"step": 5
},
{
"epoch": 0.0512,
"grad_norm": 84.4494318688335,
"learning_rate": 7.781512503836437e-06,
"loss": 6.4194,
"step": 6
},
{
"epoch": 0.05973333333333333,
"grad_norm": 71.37977490595638,
"learning_rate": 8.450980400142568e-06,
"loss": 5.4953,
"step": 7
},
{
"epoch": 0.06826666666666667,
"grad_norm": 49.31153456754566,
"learning_rate": 9.030899869919434e-06,
"loss": 5.4123,
"step": 8
},
{
"epoch": 0.0768,
"grad_norm": 20.37296364560341,
"learning_rate": 9.542425094393249e-06,
"loss": 5.2334,
"step": 9
},
{
"epoch": 0.08533333333333333,
"grad_norm": 7.968467079076881,
"learning_rate": 9.999999999999999e-06,
"loss": 5.0282,
"step": 10
},
{
"epoch": 0.09386666666666667,
"grad_norm": 3.559446532055649,
"learning_rate": 1.041392685158225e-05,
"loss": 4.612,
"step": 11
},
{
"epoch": 0.1024,
"grad_norm": 3.5528846947995674,
"learning_rate": 1.0791812460476248e-05,
"loss": 4.9475,
"step": 12
},
{
"epoch": 0.11093333333333333,
"grad_norm": 3.541968897471334,
"learning_rate": 1.1139433523068365e-05,
"loss": 4.2777,
"step": 13
},
{
"epoch": 0.11946666666666667,
"grad_norm": 3.54718070036198,
"learning_rate": 1.1461280356782378e-05,
"loss": 4.3507,
"step": 14
},
{
"epoch": 0.128,
"grad_norm": 3.8632334830606747,
"learning_rate": 1.1760912590556813e-05,
"loss": 4.5364,
"step": 15
},
{
"epoch": 0.13653333333333334,
"grad_norm": 3.6637424744054004,
"learning_rate": 1.2041199826559246e-05,
"loss": 3.9672,
"step": 16
},
{
"epoch": 0.14506666666666668,
"grad_norm": 3.919802904818311,
"learning_rate": 1.230448921378274e-05,
"loss": 4.0618,
"step": 17
},
{
"epoch": 0.1536,
"grad_norm": 4.71904950738746,
"learning_rate": 1.2552725051033058e-05,
"loss": 4.6656,
"step": 18
},
{
"epoch": 0.16213333333333332,
"grad_norm": 4.6656317698690835,
"learning_rate": 1.2787536009528288e-05,
"loss": 4.1131,
"step": 19
},
{
"epoch": 0.17066666666666666,
"grad_norm": 5.145138692367417,
"learning_rate": 1.301029995663981e-05,
"loss": 4.0989,
"step": 20
},
{
"epoch": 0.1792,
"grad_norm": 5.923538014759818,
"learning_rate": 1.3222192947339192e-05,
"loss": 4.4991,
"step": 21
},
{
"epoch": 0.18773333333333334,
"grad_norm": 5.941056962941364,
"learning_rate": 1.3424226808222062e-05,
"loss": 4.0836,
"step": 22
},
{
"epoch": 0.19626666666666667,
"grad_norm": 6.171026012117947,
"learning_rate": 1.3617278360175927e-05,
"loss": 3.6861,
"step": 23
},
{
"epoch": 0.2048,
"grad_norm": 7.130542138930838,
"learning_rate": 1.380211241711606e-05,
"loss": 4.0958,
"step": 24
},
{
"epoch": 0.21333333333333335,
"grad_norm": 7.328837606110418,
"learning_rate": 1.3979400086720374e-05,
"loss": 3.9524,
"step": 25
},
{
"epoch": 0.22186666666666666,
"grad_norm": 6.923489005711429,
"learning_rate": 1.4149733479708178e-05,
"loss": 3.6062,
"step": 26
},
{
"epoch": 0.2304,
"grad_norm": 6.409498926059221,
"learning_rate": 1.4313637641589872e-05,
"loss": 3.2034,
"step": 27
},
{
"epoch": 0.23893333333333333,
"grad_norm": 5.781628405584682,
"learning_rate": 1.4471580313422191e-05,
"loss": 2.8158,
"step": 28
},
{
"epoch": 0.24746666666666667,
"grad_norm": 6.2927590068243315,
"learning_rate": 1.4623979978989559e-05,
"loss": 2.9803,
"step": 29
},
{
"epoch": 0.256,
"grad_norm": 6.103844678630006,
"learning_rate": 1.4771212547196623e-05,
"loss": 2.847,
"step": 30
},
{
"epoch": 0.26453333333333334,
"grad_norm": 7.656341925867144,
"learning_rate": 1.4913616938342726e-05,
"loss": 3.0907,
"step": 31
},
{
"epoch": 0.2730666666666667,
"grad_norm": 6.324242877501844,
"learning_rate": 1.5051499783199059e-05,
"loss": 2.3467,
"step": 32
},
{
"epoch": 0.2816,
"grad_norm": 7.606313101162739,
"learning_rate": 1.5185139398778874e-05,
"loss": 2.5292,
"step": 33
},
{
"epoch": 0.29013333333333335,
"grad_norm": 8.553792493849265,
"learning_rate": 1.531478917042255e-05,
"loss": 2.4547,
"step": 34
},
{
"epoch": 0.2986666666666667,
"grad_norm": 8.483368703272543,
"learning_rate": 1.5440680443502753e-05,
"loss": 2.1956,
"step": 35
},
{
"epoch": 0.3072,
"grad_norm": 8.364739352838077,
"learning_rate": 1.5563025007672873e-05,
"loss": 1.8552,
"step": 36
},
{
"epoch": 0.3157333333333333,
"grad_norm": 9.37663682000104,
"learning_rate": 1.5682017240669948e-05,
"loss": 1.9228,
"step": 37
},
{
"epoch": 0.32426666666666665,
"grad_norm": 9.823047193440066,
"learning_rate": 1.57978359661681e-05,
"loss": 1.7033,
"step": 38
},
{
"epoch": 0.3328,
"grad_norm": 9.692618512955894,
"learning_rate": 1.591064607026499e-05,
"loss": 1.3768,
"step": 39
},
{
"epoch": 0.3413333333333333,
"grad_norm": 9.08889021911031,
"learning_rate": 1.6020599913279622e-05,
"loss": 1.3015,
"step": 40
},
{
"epoch": 0.34986666666666666,
"grad_norm": 8.081534221516058,
"learning_rate": 1.6127838567197353e-05,
"loss": 0.9228,
"step": 41
},
{
"epoch": 0.3584,
"grad_norm": 6.238638048950311,
"learning_rate": 1.6232492903979005e-05,
"loss": 0.7267,
"step": 42
},
{
"epoch": 0.36693333333333333,
"grad_norm": 3.4058036861773604,
"learning_rate": 1.6334684555795865e-05,
"loss": 0.5875,
"step": 43
},
{
"epoch": 0.37546666666666667,
"grad_norm": 2.079163829467713,
"learning_rate": 1.6434526764861872e-05,
"loss": 0.6355,
"step": 44
},
{
"epoch": 0.384,
"grad_norm": 1.5597487833024746,
"learning_rate": 1.6532125137753435e-05,
"loss": 0.5106,
"step": 45
},
{
"epoch": 0.39253333333333335,
"grad_norm": 2.491689602375256,
"learning_rate": 1.662757831681574e-05,
"loss": 0.6454,
"step": 46
},
{
"epoch": 0.4010666666666667,
"grad_norm": 2.010880438195854,
"learning_rate": 1.672097857935717e-05,
"loss": 0.4757,
"step": 47
},
{
"epoch": 0.4096,
"grad_norm": 1.9452805114322096,
"learning_rate": 1.681241237375587e-05,
"loss": 0.4133,
"step": 48
},
{
"epoch": 0.41813333333333336,
"grad_norm": 1.7620848552306103,
"learning_rate": 1.6901960800285137e-05,
"loss": 0.4004,
"step": 49
},
{
"epoch": 0.4266666666666667,
"grad_norm": 1.278224489774809,
"learning_rate": 1.6989700043360187e-05,
"loss": 0.3523,
"step": 50
},
{
"epoch": 0.4352,
"grad_norm": 1.6151354758303231,
"learning_rate": 1.7075701760979363e-05,
"loss": 0.4317,
"step": 51
},
{
"epoch": 0.4437333333333333,
"grad_norm": 1.3451396055695035,
"learning_rate": 1.716003343634799e-05,
"loss": 0.3474,
"step": 52
},
{
"epoch": 0.45226666666666665,
"grad_norm": 1.6814977782362666,
"learning_rate": 1.724275869600789e-05,
"loss": 0.3706,
"step": 53
},
{
"epoch": 0.4608,
"grad_norm": 1.1682442432688667,
"learning_rate": 1.7323937598229687e-05,
"loss": 0.3488,
"step": 54
},
{
"epoch": 0.4693333333333333,
"grad_norm": 0.8839814540462471,
"learning_rate": 1.7403626894942437e-05,
"loss": 0.293,
"step": 55
},
{
"epoch": 0.47786666666666666,
"grad_norm": 0.7974304806295485,
"learning_rate": 1.7481880270062003e-05,
"loss": 0.2717,
"step": 56
},
{
"epoch": 0.4864,
"grad_norm": 0.6232203657585239,
"learning_rate": 1.7558748556724913e-05,
"loss": 0.1741,
"step": 57
},
{
"epoch": 0.49493333333333334,
"grad_norm": 0.6850688604563008,
"learning_rate": 1.763427993562937e-05,
"loss": 0.228,
"step": 58
},
{
"epoch": 0.5034666666666666,
"grad_norm": 0.5923826384300431,
"learning_rate": 1.7708520116421443e-05,
"loss": 0.2131,
"step": 59
},
{
"epoch": 0.512,
"grad_norm": 0.489754430485032,
"learning_rate": 1.7781512503836432e-05,
"loss": 0.165,
"step": 60
},
{
"epoch": 0.5205333333333333,
"grad_norm": 0.5280940052395061,
"learning_rate": 1.7853298350107667e-05,
"loss": 0.1658,
"step": 61
},
{
"epoch": 0.5290666666666667,
"grad_norm": 0.4750905992036739,
"learning_rate": 1.7923916894982537e-05,
"loss": 0.1438,
"step": 62
},
{
"epoch": 0.5376,
"grad_norm": 0.4162998392722401,
"learning_rate": 1.7993405494535815e-05,
"loss": 0.1555,
"step": 63
},
{
"epoch": 0.5461333333333334,
"grad_norm": 0.26863266246370443,
"learning_rate": 1.806179973983887e-05,
"loss": 0.1323,
"step": 64
},
{
"epoch": 0.5546666666666666,
"grad_norm": 0.26534221125601215,
"learning_rate": 1.8129133566428553e-05,
"loss": 0.1671,
"step": 65
},
{
"epoch": 0.5632,
"grad_norm": 0.2548662962257576,
"learning_rate": 1.8195439355418686e-05,
"loss": 0.1308,
"step": 66
},
{
"epoch": 0.5717333333333333,
"grad_norm": 0.18045394638578796,
"learning_rate": 1.8260748027008263e-05,
"loss": 0.1262,
"step": 67
},
{
"epoch": 0.5802666666666667,
"grad_norm": 0.17070388073612064,
"learning_rate": 1.8325089127062364e-05,
"loss": 0.1192,
"step": 68
},
{
"epoch": 0.5888,
"grad_norm": 0.1531381679244776,
"learning_rate": 1.8388490907372553e-05,
"loss": 0.1274,
"step": 69
},
{
"epoch": 0.5973333333333334,
"grad_norm": 0.18196434993687946,
"learning_rate": 1.8450980400142568e-05,
"loss": 0.1375,
"step": 70
},
{
"epoch": 0.6058666666666667,
"grad_norm": 0.15324416972951205,
"learning_rate": 1.8512583487190752e-05,
"loss": 0.1599,
"step": 71
},
{
"epoch": 0.6144,
"grad_norm": 0.10884462064503801,
"learning_rate": 1.857332496431268e-05,
"loss": 0.1041,
"step": 72
},
{
"epoch": 0.6229333333333333,
"grad_norm": 0.12915133528192668,
"learning_rate": 1.8633228601204555e-05,
"loss": 0.1406,
"step": 73
},
{
"epoch": 0.6314666666666666,
"grad_norm": 0.12553425699952878,
"learning_rate": 1.8692317197309763e-05,
"loss": 0.1256,
"step": 74
},
{
"epoch": 0.64,
"grad_norm": 0.11976960918968543,
"learning_rate": 1.8750612633916997e-05,
"loss": 0.1144,
"step": 75
},
{
"epoch": 0.6485333333333333,
"grad_norm": 0.115805998298789,
"learning_rate": 1.8808135922807914e-05,
"loss": 0.1528,
"step": 76
},
{
"epoch": 0.6570666666666667,
"grad_norm": 0.10325948496697443,
"learning_rate": 1.8864907251724818e-05,
"loss": 0.1044,
"step": 77
},
{
"epoch": 0.6656,
"grad_norm": 0.09595064346541006,
"learning_rate": 1.8920946026904802e-05,
"loss": 0.1534,
"step": 78
},
{
"epoch": 0.6741333333333334,
"grad_norm": 0.08796742845240496,
"learning_rate": 1.8976270912904414e-05,
"loss": 0.1155,
"step": 79
},
{
"epoch": 0.6826666666666666,
"grad_norm": 0.08218991738379527,
"learning_rate": 1.9030899869919434e-05,
"loss": 0.1311,
"step": 80
}
],
"logging_steps": 1,
"max_steps": 351,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 20,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 1.1373018660449812e+18,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}