{ "best_metric": 0.8383233532934131, "best_model_checkpoint": "./results/checkpoint-1000", "epoch": 2.6666666666666665, "eval_steps": 250, "global_step": 1000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0026666666666666666, "grad_norm": 16.15040397644043, "learning_rate": 1.9982222222222224e-05, "loss": 2.3987, "step": 1 }, { "epoch": 0.08, "grad_norm": 12.260425567626953, "learning_rate": 1.9466666666666668e-05, "loss": 2.2393, "step": 30 }, { "epoch": 0.16, "grad_norm": 8.993585586547852, "learning_rate": 1.8933333333333334e-05, "loss": 1.7878, "step": 60 }, { "epoch": 0.24, "grad_norm": 11.122185707092285, "learning_rate": 1.8400000000000003e-05, "loss": 1.5155, "step": 90 }, { "epoch": 0.32, "grad_norm": 15.829800605773926, "learning_rate": 1.7866666666666666e-05, "loss": 1.2466, "step": 120 }, { "epoch": 0.4, "grad_norm": 14.291194915771484, "learning_rate": 1.7333333333333336e-05, "loss": 1.1996, "step": 150 }, { "epoch": 0.48, "grad_norm": 17.213542938232422, "learning_rate": 1.6800000000000002e-05, "loss": 1.0749, "step": 180 }, { "epoch": 0.56, "grad_norm": 8.14549446105957, "learning_rate": 1.6266666666666668e-05, "loss": 0.9717, "step": 210 }, { "epoch": 0.64, "grad_norm": 13.813669204711914, "learning_rate": 1.5733333333333334e-05, "loss": 1.1143, "step": 240 }, { "epoch": 0.6666666666666666, "eval_accuracy": 0.7455089820359282, "eval_loss": 0.9105517268180847, "eval_runtime": 128.8034, "eval_samples_per_second": 2.593, "eval_steps_per_second": 0.326, "step": 250 }, { "epoch": 0.72, "grad_norm": 6.617077350616455, "learning_rate": 1.5200000000000002e-05, "loss": 0.8563, "step": 270 }, { "epoch": 0.8, "grad_norm": 7.134422302246094, "learning_rate": 1.4666666666666666e-05, "loss": 0.8534, "step": 300 }, { "epoch": 0.88, "grad_norm": 14.594669342041016, "learning_rate": 1.4133333333333334e-05, "loss": 0.8166, "step": 330 }, { "epoch": 0.96, "grad_norm": 11.417457580566406, "learning_rate": 1.3600000000000002e-05, "loss": 0.8419, "step": 360 }, { "epoch": 1.04, "grad_norm": 13.239908218383789, "learning_rate": 1.3066666666666668e-05, "loss": 0.7204, "step": 390 }, { "epoch": 1.12, "grad_norm": 16.799551010131836, "learning_rate": 1.2533333333333336e-05, "loss": 0.5632, "step": 420 }, { "epoch": 1.2, "grad_norm": 7.094001770019531, "learning_rate": 1.2e-05, "loss": 0.7082, "step": 450 }, { "epoch": 1.28, "grad_norm": 17.73163604736328, "learning_rate": 1.1466666666666668e-05, "loss": 0.573, "step": 480 }, { "epoch": 1.3333333333333333, "eval_accuracy": 0.7994011976047904, "eval_loss": 0.6648051738739014, "eval_runtime": 125.6819, "eval_samples_per_second": 2.658, "eval_steps_per_second": 0.334, "step": 500 }, { "epoch": 1.3599999999999999, "grad_norm": 13.776785850524902, "learning_rate": 1.0933333333333334e-05, "loss": 0.4696, "step": 510 }, { "epoch": 1.44, "grad_norm": 24.468957901000977, "learning_rate": 1.04e-05, "loss": 0.617, "step": 540 }, { "epoch": 1.52, "grad_norm": 18.628131866455078, "learning_rate": 9.866666666666668e-06, "loss": 0.6078, "step": 570 }, { "epoch": 1.6, "grad_norm": 100.15174865722656, "learning_rate": 9.333333333333334e-06, "loss": 0.5287, "step": 600 }, { "epoch": 1.6800000000000002, "grad_norm": 16.748079299926758, "learning_rate": 8.8e-06, "loss": 0.7787, "step": 630 }, { "epoch": 1.76, "grad_norm": 19.134979248046875, "learning_rate": 8.266666666666667e-06, "loss": 0.4815, "step": 660 }, { "epoch": 1.8399999999999999, "grad_norm": 6.146342754364014, "learning_rate": 7.733333333333334e-06, "loss": 0.5385, "step": 690 }, { "epoch": 1.92, "grad_norm": 5.284756660461426, "learning_rate": 7.2000000000000005e-06, "loss": 0.6076, "step": 720 }, { "epoch": 2.0, "grad_norm": 13.146005630493164, "learning_rate": 6.666666666666667e-06, "loss": 0.5023, "step": 750 }, { "epoch": 2.0, "eval_accuracy": 0.8323353293413174, "eval_loss": 0.6021029353141785, "eval_runtime": 118.5789, "eval_samples_per_second": 2.817, "eval_steps_per_second": 0.354, "step": 750 }, { "epoch": 2.08, "grad_norm": 15.934453010559082, "learning_rate": 6.133333333333334e-06, "loss": 0.4482, "step": 780 }, { "epoch": 2.16, "grad_norm": 2.5525577068328857, "learning_rate": 5.600000000000001e-06, "loss": 0.4262, "step": 810 }, { "epoch": 2.24, "grad_norm": 20.71769905090332, "learning_rate": 5.0666666666666676e-06, "loss": 0.3308, "step": 840 }, { "epoch": 2.32, "grad_norm": 5.773500919342041, "learning_rate": 4.533333333333334e-06, "loss": 0.3913, "step": 870 }, { "epoch": 2.4, "grad_norm": 23.659786224365234, "learning_rate": 4.000000000000001e-06, "loss": 0.4899, "step": 900 }, { "epoch": 2.48, "grad_norm": 9.76993179321289, "learning_rate": 3.4666666666666672e-06, "loss": 0.3889, "step": 930 }, { "epoch": 2.56, "grad_norm": 3.7444443702697754, "learning_rate": 2.9333333333333338e-06, "loss": 0.4644, "step": 960 }, { "epoch": 2.64, "grad_norm": 15.488058090209961, "learning_rate": 2.4000000000000003e-06, "loss": 0.3985, "step": 990 }, { "epoch": 2.6666666666666665, "eval_accuracy": 0.8383233532934131, "eval_loss": 0.5776464939117432, "eval_runtime": 128.183, "eval_samples_per_second": 2.606, "eval_steps_per_second": 0.328, "step": 1000 } ], "logging_steps": 30, "max_steps": 1125, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 500, "stateful_callbacks": { "EarlyStoppingCallback": { "args": { "early_stopping_patience": 3, "early_stopping_threshold": 0.0 }, "attributes": { "early_stopping_patience_counter": 0 } }, "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 525996778653696.0, "train_batch_size": 8, "trial_name": null, "trial_params": null }