|
{ |
|
"best_metric": 0.32863247863247863, |
|
"best_model_checkpoint": "/content/drive/MyDrive/model_ft/checkpoint-60000", |
|
"epoch": 70.58823529411765, |
|
"global_step": 60000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 8.25e-08, |
|
"loss": 13.3276, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 1.6583333333333334e-07, |
|
"loss": 13.3671, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 2.491666666666667e-07, |
|
"loss": 13.5271, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 3.3250000000000005e-07, |
|
"loss": 13.1811, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 4.1583333333333336e-07, |
|
"loss": 13.759, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 4.991666666666667e-07, |
|
"loss": 12.8466, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 5.816666666666667e-07, |
|
"loss": 13.2734, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 6.650000000000001e-07, |
|
"loss": 12.6648, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 7.483333333333334e-07, |
|
"loss": 11.954, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 8.316666666666667e-07, |
|
"loss": 10.7418, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 9.15e-07, |
|
"loss": 9.103, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 9.983333333333334e-07, |
|
"loss": 7.9895, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 1.0816666666666668e-06, |
|
"loss": 6.969, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 1.165e-06, |
|
"loss": 6.3495, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 1.2483333333333334e-06, |
|
"loss": 6.025, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 1.3316666666666667e-06, |
|
"loss": 5.5944, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 1.415e-06, |
|
"loss": 5.3688, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 1.4983333333333335e-06, |
|
"loss": 5.1139, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 1.5816666666666668e-06, |
|
"loss": 4.9115, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 1.6650000000000002e-06, |
|
"loss": 4.7514, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 1.7483333333333335e-06, |
|
"loss": 4.6136, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 1.8316666666666668e-06, |
|
"loss": 4.491, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 1.9150000000000003e-06, |
|
"loss": 4.342, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"learning_rate": 1.9983333333333334e-06, |
|
"loss": 4.2564, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 2.94, |
|
"learning_rate": 2.081666666666667e-06, |
|
"loss": 4.1291, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 3.06, |
|
"learning_rate": 2.165e-06, |
|
"loss": 4.0612, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 3.18, |
|
"learning_rate": 2.2483333333333335e-06, |
|
"loss": 3.9644, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 3.29, |
|
"learning_rate": 2.3316666666666666e-06, |
|
"loss": 3.8365, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 3.41, |
|
"learning_rate": 2.415e-06, |
|
"loss": 3.8019, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 3.53, |
|
"learning_rate": 2.4983333333333333e-06, |
|
"loss": 3.7349, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 3.65, |
|
"learning_rate": 2.581666666666667e-06, |
|
"loss": 3.682, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 3.76, |
|
"learning_rate": 2.6650000000000003e-06, |
|
"loss": 3.6215, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 3.88, |
|
"learning_rate": 2.7483333333333334e-06, |
|
"loss": 3.5712, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 2.831666666666667e-06, |
|
"loss": 3.5167, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 4.12, |
|
"learning_rate": 2.915e-06, |
|
"loss": 3.4697, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 4.24, |
|
"learning_rate": 2.9983333333333336e-06, |
|
"loss": 3.4221, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 4.35, |
|
"learning_rate": 3.0816666666666667e-06, |
|
"loss": 3.398, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 4.47, |
|
"learning_rate": 3.165e-06, |
|
"loss": 3.385, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 4.59, |
|
"learning_rate": 3.2483333333333333e-06, |
|
"loss": 3.3592, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 4.71, |
|
"learning_rate": 3.331666666666667e-06, |
|
"loss": 3.3542, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 4.82, |
|
"learning_rate": 3.4150000000000003e-06, |
|
"loss": 3.3356, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 4.94, |
|
"learning_rate": 3.4983333333333334e-06, |
|
"loss": 3.315, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 5.06, |
|
"learning_rate": 3.5816666666666674e-06, |
|
"loss": 3.3274, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 5.18, |
|
"learning_rate": 3.665e-06, |
|
"loss": 3.2824, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 5.29, |
|
"learning_rate": 3.748333333333334e-06, |
|
"loss": 3.2844, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 5.41, |
|
"learning_rate": 3.831666666666667e-06, |
|
"loss": 3.2619, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 5.53, |
|
"learning_rate": 3.915000000000001e-06, |
|
"loss": 3.2613, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 5.65, |
|
"learning_rate": 3.998333333333334e-06, |
|
"loss": 3.2509, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 5.76, |
|
"learning_rate": 4.081666666666667e-06, |
|
"loss": 3.2457, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 5.88, |
|
"learning_rate": 4.165e-06, |
|
"loss": 3.2303, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"learning_rate": 4.2475e-06, |
|
"loss": 3.235, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 6.12, |
|
"learning_rate": 4.3308333333333335e-06, |
|
"loss": 3.2095, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 6.24, |
|
"learning_rate": 4.4141666666666675e-06, |
|
"loss": 3.2111, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 6.35, |
|
"learning_rate": 4.4975000000000006e-06, |
|
"loss": 3.1865, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 6.47, |
|
"learning_rate": 4.580833333333334e-06, |
|
"loss": 3.1699, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 6.59, |
|
"learning_rate": 4.664166666666667e-06, |
|
"loss": 3.1455, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 6.71, |
|
"learning_rate": 4.747500000000001e-06, |
|
"loss": 3.1055, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 6.82, |
|
"learning_rate": 4.830833333333334e-06, |
|
"loss": 3.0822, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 6.94, |
|
"learning_rate": 4.914166666666667e-06, |
|
"loss": 3.0117, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 7.06, |
|
"learning_rate": 4.997500000000001e-06, |
|
"loss": 2.9725, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 7.18, |
|
"learning_rate": 5e-06, |
|
"loss": 2.9052, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 7.29, |
|
"learning_rate": 5e-06, |
|
"loss": 2.8386, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 7.41, |
|
"learning_rate": 5e-06, |
|
"loss": 2.7776, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 7.53, |
|
"learning_rate": 5e-06, |
|
"loss": 2.7029, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 7.65, |
|
"learning_rate": 5e-06, |
|
"loss": 2.6344, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 7.76, |
|
"learning_rate": 5e-06, |
|
"loss": 2.5601, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 7.88, |
|
"learning_rate": 5e-06, |
|
"loss": 2.5069, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 5e-06, |
|
"loss": 2.4533, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 8.12, |
|
"learning_rate": 5e-06, |
|
"loss": 2.3527, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 8.24, |
|
"learning_rate": 5e-06, |
|
"loss": 2.3213, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 8.35, |
|
"learning_rate": 5e-06, |
|
"loss": 2.2538, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 8.47, |
|
"learning_rate": 5e-06, |
|
"loss": 2.2051, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 8.59, |
|
"learning_rate": 5e-06, |
|
"loss": 2.1572, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 8.71, |
|
"learning_rate": 5e-06, |
|
"loss": 2.1269, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 8.82, |
|
"learning_rate": 5e-06, |
|
"loss": 2.0919, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 8.94, |
|
"learning_rate": 5e-06, |
|
"loss": 2.043, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 9.06, |
|
"learning_rate": 5e-06, |
|
"loss": 1.9963, |
|
"step": 7700 |
|
}, |
|
{ |
|
"epoch": 9.18, |
|
"learning_rate": 5e-06, |
|
"loss": 1.923, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 9.29, |
|
"learning_rate": 5e-06, |
|
"loss": 1.8817, |
|
"step": 7900 |
|
}, |
|
{ |
|
"epoch": 9.41, |
|
"learning_rate": 5e-06, |
|
"loss": 1.8598, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 9.53, |
|
"learning_rate": 5e-06, |
|
"loss": 1.853, |
|
"step": 8100 |
|
}, |
|
{ |
|
"epoch": 9.65, |
|
"learning_rate": 5e-06, |
|
"loss": 1.7911, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 9.76, |
|
"learning_rate": 5e-06, |
|
"loss": 1.801, |
|
"step": 8300 |
|
}, |
|
{ |
|
"epoch": 9.88, |
|
"learning_rate": 5e-06, |
|
"loss": 1.7483, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"learning_rate": 5e-06, |
|
"loss": 1.6983, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 10.12, |
|
"learning_rate": 5e-06, |
|
"loss": 1.7095, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 10.24, |
|
"learning_rate": 5e-06, |
|
"loss": 1.6673, |
|
"step": 8700 |
|
}, |
|
{ |
|
"epoch": 10.35, |
|
"learning_rate": 5e-06, |
|
"loss": 1.662, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 10.47, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5961, |
|
"step": 8900 |
|
}, |
|
{ |
|
"epoch": 10.59, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5782, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 10.71, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5687, |
|
"step": 9100 |
|
}, |
|
{ |
|
"epoch": 10.82, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5924, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 10.94, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5246, |
|
"step": 9300 |
|
}, |
|
{ |
|
"epoch": 11.06, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5382, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 11.18, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4948, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 11.29, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4695, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 11.41, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4473, |
|
"step": 9700 |
|
}, |
|
{ |
|
"epoch": 11.53, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4252, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 11.65, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4359, |
|
"step": 9900 |
|
}, |
|
{ |
|
"epoch": 11.76, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4131, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 11.76, |
|
"eval_cer": 0.2265467514343309, |
|
"eval_loss": 1.0398374795913696, |
|
"eval_runtime": 8.2478, |
|
"eval_samples_per_second": 36.374, |
|
"eval_steps_per_second": 18.187, |
|
"eval_wer": 0.7435897435897436, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 11.88, |
|
"learning_rate": 5e-06, |
|
"loss": 1.4034, |
|
"step": 10100 |
|
}, |
|
{ |
|
"epoch": 12.0, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3831, |
|
"step": 10200 |
|
}, |
|
{ |
|
"epoch": 12.12, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3612, |
|
"step": 10300 |
|
}, |
|
{ |
|
"epoch": 12.24, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3589, |
|
"step": 10400 |
|
}, |
|
{ |
|
"epoch": 12.35, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3453, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 12.47, |
|
"learning_rate": 5e-06, |
|
"loss": 1.343, |
|
"step": 10600 |
|
}, |
|
{ |
|
"epoch": 12.59, |
|
"learning_rate": 5e-06, |
|
"loss": 1.317, |
|
"step": 10700 |
|
}, |
|
{ |
|
"epoch": 12.71, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3011, |
|
"step": 10800 |
|
}, |
|
{ |
|
"epoch": 12.82, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3333, |
|
"step": 10900 |
|
}, |
|
{ |
|
"epoch": 12.94, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2563, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 13.06, |
|
"learning_rate": 5e-06, |
|
"loss": 1.3362, |
|
"step": 11100 |
|
}, |
|
{ |
|
"epoch": 13.18, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2656, |
|
"step": 11200 |
|
}, |
|
{ |
|
"epoch": 13.29, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2411, |
|
"step": 11300 |
|
}, |
|
{ |
|
"epoch": 13.41, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2256, |
|
"step": 11400 |
|
}, |
|
{ |
|
"epoch": 13.53, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2319, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 13.65, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2011, |
|
"step": 11600 |
|
}, |
|
{ |
|
"epoch": 13.76, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1766, |
|
"step": 11700 |
|
}, |
|
{ |
|
"epoch": 13.88, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2659, |
|
"step": 11800 |
|
}, |
|
{ |
|
"epoch": 14.0, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2131, |
|
"step": 11900 |
|
}, |
|
{ |
|
"epoch": 14.12, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1934, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 14.24, |
|
"learning_rate": 5e-06, |
|
"loss": 1.2018, |
|
"step": 12100 |
|
}, |
|
{ |
|
"epoch": 14.35, |
|
"learning_rate": 5e-06, |
|
"loss": 1.175, |
|
"step": 12200 |
|
}, |
|
{ |
|
"epoch": 14.47, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1658, |
|
"step": 12300 |
|
}, |
|
{ |
|
"epoch": 14.59, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1728, |
|
"step": 12400 |
|
}, |
|
{ |
|
"epoch": 14.71, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1216, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 14.82, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1417, |
|
"step": 12600 |
|
}, |
|
{ |
|
"epoch": 14.94, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1386, |
|
"step": 12700 |
|
}, |
|
{ |
|
"epoch": 15.06, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0892, |
|
"step": 12800 |
|
}, |
|
{ |
|
"epoch": 15.18, |
|
"learning_rate": 5e-06, |
|
"loss": 1.124, |
|
"step": 12900 |
|
}, |
|
{ |
|
"epoch": 15.29, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1065, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 15.41, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1189, |
|
"step": 13100 |
|
}, |
|
{ |
|
"epoch": 15.53, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1184, |
|
"step": 13200 |
|
}, |
|
{ |
|
"epoch": 15.65, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0709, |
|
"step": 13300 |
|
}, |
|
{ |
|
"epoch": 15.76, |
|
"learning_rate": 5e-06, |
|
"loss": 1.1085, |
|
"step": 13400 |
|
}, |
|
{ |
|
"epoch": 15.88, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0668, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 16.0, |
|
"learning_rate": 5e-06, |
|
"loss": 1.104, |
|
"step": 13600 |
|
}, |
|
{ |
|
"epoch": 16.12, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0781, |
|
"step": 13700 |
|
}, |
|
{ |
|
"epoch": 16.24, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0525, |
|
"step": 13800 |
|
}, |
|
{ |
|
"epoch": 16.35, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0667, |
|
"step": 13900 |
|
}, |
|
{ |
|
"epoch": 16.47, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0298, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 16.59, |
|
"learning_rate": 5e-06, |
|
"loss": 1.093, |
|
"step": 14100 |
|
}, |
|
{ |
|
"epoch": 16.71, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0394, |
|
"step": 14200 |
|
}, |
|
{ |
|
"epoch": 16.82, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0356, |
|
"step": 14300 |
|
}, |
|
{ |
|
"epoch": 16.94, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0467, |
|
"step": 14400 |
|
}, |
|
{ |
|
"epoch": 17.06, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0171, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 17.18, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0577, |
|
"step": 14600 |
|
}, |
|
{ |
|
"epoch": 17.29, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0329, |
|
"step": 14700 |
|
}, |
|
{ |
|
"epoch": 17.41, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0385, |
|
"step": 14800 |
|
}, |
|
{ |
|
"epoch": 17.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9814, |
|
"step": 14900 |
|
}, |
|
{ |
|
"epoch": 17.65, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0115, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 17.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9966, |
|
"step": 15100 |
|
}, |
|
{ |
|
"epoch": 17.88, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0068, |
|
"step": 15200 |
|
}, |
|
{ |
|
"epoch": 18.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9655, |
|
"step": 15300 |
|
}, |
|
{ |
|
"epoch": 18.12, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0097, |
|
"step": 15400 |
|
}, |
|
{ |
|
"epoch": 18.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9861, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 18.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9604, |
|
"step": 15600 |
|
}, |
|
{ |
|
"epoch": 18.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9894, |
|
"step": 15700 |
|
}, |
|
{ |
|
"epoch": 18.59, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0, |
|
"step": 15800 |
|
}, |
|
{ |
|
"epoch": 18.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9469, |
|
"step": 15900 |
|
}, |
|
{ |
|
"epoch": 18.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9675, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 18.94, |
|
"learning_rate": 5e-06, |
|
"loss": 1.0127, |
|
"step": 16100 |
|
}, |
|
{ |
|
"epoch": 19.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9574, |
|
"step": 16200 |
|
}, |
|
{ |
|
"epoch": 19.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9775, |
|
"step": 16300 |
|
}, |
|
{ |
|
"epoch": 19.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9302, |
|
"step": 16400 |
|
}, |
|
{ |
|
"epoch": 19.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9379, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 19.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9498, |
|
"step": 16600 |
|
}, |
|
{ |
|
"epoch": 19.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9449, |
|
"step": 16700 |
|
}, |
|
{ |
|
"epoch": 19.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9567, |
|
"step": 16800 |
|
}, |
|
{ |
|
"epoch": 19.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9288, |
|
"step": 16900 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9174, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 20.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8975, |
|
"step": 17100 |
|
}, |
|
{ |
|
"epoch": 20.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.907, |
|
"step": 17200 |
|
}, |
|
{ |
|
"epoch": 20.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9152, |
|
"step": 17300 |
|
}, |
|
{ |
|
"epoch": 20.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9345, |
|
"step": 17400 |
|
}, |
|
{ |
|
"epoch": 20.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9491, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 20.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8746, |
|
"step": 17600 |
|
}, |
|
{ |
|
"epoch": 20.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9377, |
|
"step": 17700 |
|
}, |
|
{ |
|
"epoch": 20.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9243, |
|
"step": 17800 |
|
}, |
|
{ |
|
"epoch": 21.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.9177, |
|
"step": 17900 |
|
}, |
|
{ |
|
"epoch": 21.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8991, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 21.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8724, |
|
"step": 18100 |
|
}, |
|
{ |
|
"epoch": 21.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.874, |
|
"step": 18200 |
|
}, |
|
{ |
|
"epoch": 21.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.934, |
|
"step": 18300 |
|
}, |
|
{ |
|
"epoch": 21.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.868, |
|
"step": 18400 |
|
}, |
|
{ |
|
"epoch": 21.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8915, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 21.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8902, |
|
"step": 18600 |
|
}, |
|
{ |
|
"epoch": 22.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8871, |
|
"step": 18700 |
|
}, |
|
{ |
|
"epoch": 22.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.883, |
|
"step": 18800 |
|
}, |
|
{ |
|
"epoch": 22.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8589, |
|
"step": 18900 |
|
}, |
|
{ |
|
"epoch": 22.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8407, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 22.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8759, |
|
"step": 19100 |
|
}, |
|
{ |
|
"epoch": 22.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8964, |
|
"step": 19200 |
|
}, |
|
{ |
|
"epoch": 22.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8961, |
|
"step": 19300 |
|
}, |
|
{ |
|
"epoch": 22.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8789, |
|
"step": 19400 |
|
}, |
|
{ |
|
"epoch": 22.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8619, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 23.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8907, |
|
"step": 19600 |
|
}, |
|
{ |
|
"epoch": 23.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8332, |
|
"step": 19700 |
|
}, |
|
{ |
|
"epoch": 23.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8518, |
|
"step": 19800 |
|
}, |
|
{ |
|
"epoch": 23.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8685, |
|
"step": 19900 |
|
}, |
|
{ |
|
"epoch": 23.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8208, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 23.53, |
|
"eval_cer": 0.1398666459916266, |
|
"eval_loss": 0.5984983444213867, |
|
"eval_runtime": 7.9445, |
|
"eval_samples_per_second": 37.762, |
|
"eval_steps_per_second": 18.881, |
|
"eval_wer": 0.48846153846153845, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 23.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8495, |
|
"step": 20100 |
|
}, |
|
{ |
|
"epoch": 23.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8308, |
|
"step": 20200 |
|
}, |
|
{ |
|
"epoch": 23.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8871, |
|
"step": 20300 |
|
}, |
|
{ |
|
"epoch": 24.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8437, |
|
"step": 20400 |
|
}, |
|
{ |
|
"epoch": 24.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8301, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 24.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8147, |
|
"step": 20600 |
|
}, |
|
{ |
|
"epoch": 24.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8189, |
|
"step": 20700 |
|
}, |
|
{ |
|
"epoch": 24.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8449, |
|
"step": 20800 |
|
}, |
|
{ |
|
"epoch": 24.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8581, |
|
"step": 20900 |
|
}, |
|
{ |
|
"epoch": 24.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8694, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 24.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8206, |
|
"step": 21100 |
|
}, |
|
{ |
|
"epoch": 24.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8328, |
|
"step": 21200 |
|
}, |
|
{ |
|
"epoch": 25.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8133, |
|
"step": 21300 |
|
}, |
|
{ |
|
"epoch": 25.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7928, |
|
"step": 21400 |
|
}, |
|
{ |
|
"epoch": 25.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8863, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 25.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8131, |
|
"step": 21600 |
|
}, |
|
{ |
|
"epoch": 25.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8293, |
|
"step": 21700 |
|
}, |
|
{ |
|
"epoch": 25.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8113, |
|
"step": 21800 |
|
}, |
|
{ |
|
"epoch": 25.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8267, |
|
"step": 21900 |
|
}, |
|
{ |
|
"epoch": 25.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7989, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 26.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7918, |
|
"step": 22100 |
|
}, |
|
{ |
|
"epoch": 26.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7992, |
|
"step": 22200 |
|
}, |
|
{ |
|
"epoch": 26.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8054, |
|
"step": 22300 |
|
}, |
|
{ |
|
"epoch": 26.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8051, |
|
"step": 22400 |
|
}, |
|
{ |
|
"epoch": 26.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.804, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 26.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8245, |
|
"step": 22600 |
|
}, |
|
{ |
|
"epoch": 26.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7936, |
|
"step": 22700 |
|
}, |
|
{ |
|
"epoch": 26.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7919, |
|
"step": 22800 |
|
}, |
|
{ |
|
"epoch": 26.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8058, |
|
"step": 22900 |
|
}, |
|
{ |
|
"epoch": 27.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7936, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 27.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7966, |
|
"step": 23100 |
|
}, |
|
{ |
|
"epoch": 27.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8066, |
|
"step": 23200 |
|
}, |
|
{ |
|
"epoch": 27.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7742, |
|
"step": 23300 |
|
}, |
|
{ |
|
"epoch": 27.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7858, |
|
"step": 23400 |
|
}, |
|
{ |
|
"epoch": 27.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7878, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 27.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8145, |
|
"step": 23600 |
|
}, |
|
{ |
|
"epoch": 27.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7742, |
|
"step": 23700 |
|
}, |
|
{ |
|
"epoch": 28.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8084, |
|
"step": 23800 |
|
}, |
|
{ |
|
"epoch": 28.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7966, |
|
"step": 23900 |
|
}, |
|
{ |
|
"epoch": 28.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7893, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 28.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7749, |
|
"step": 24100 |
|
}, |
|
{ |
|
"epoch": 28.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.8018, |
|
"step": 24200 |
|
}, |
|
{ |
|
"epoch": 28.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7528, |
|
"step": 24300 |
|
}, |
|
{ |
|
"epoch": 28.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7794, |
|
"step": 24400 |
|
}, |
|
{ |
|
"epoch": 28.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7573, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 28.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7688, |
|
"step": 24600 |
|
}, |
|
{ |
|
"epoch": 29.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7859, |
|
"step": 24700 |
|
}, |
|
{ |
|
"epoch": 29.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.739, |
|
"step": 24800 |
|
}, |
|
{ |
|
"epoch": 29.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7646, |
|
"step": 24900 |
|
}, |
|
{ |
|
"epoch": 29.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.757, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 29.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7316, |
|
"step": 25100 |
|
}, |
|
{ |
|
"epoch": 29.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.746, |
|
"step": 25200 |
|
}, |
|
{ |
|
"epoch": 29.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7443, |
|
"step": 25300 |
|
}, |
|
{ |
|
"epoch": 29.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.766, |
|
"step": 25400 |
|
}, |
|
{ |
|
"epoch": 30.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7928, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 30.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7454, |
|
"step": 25600 |
|
}, |
|
{ |
|
"epoch": 30.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7576, |
|
"step": 25700 |
|
}, |
|
{ |
|
"epoch": 30.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7885, |
|
"step": 25800 |
|
}, |
|
{ |
|
"epoch": 30.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7166, |
|
"step": 25900 |
|
}, |
|
{ |
|
"epoch": 30.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.727, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 30.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7202, |
|
"step": 26100 |
|
}, |
|
{ |
|
"epoch": 30.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7493, |
|
"step": 26200 |
|
}, |
|
{ |
|
"epoch": 30.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7584, |
|
"step": 26300 |
|
}, |
|
{ |
|
"epoch": 31.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7856, |
|
"step": 26400 |
|
}, |
|
{ |
|
"epoch": 31.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7151, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 31.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7352, |
|
"step": 26600 |
|
}, |
|
{ |
|
"epoch": 31.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7561, |
|
"step": 26700 |
|
}, |
|
{ |
|
"epoch": 31.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7357, |
|
"step": 26800 |
|
}, |
|
{ |
|
"epoch": 31.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7398, |
|
"step": 26900 |
|
}, |
|
{ |
|
"epoch": 31.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.717, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 31.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7405, |
|
"step": 27100 |
|
}, |
|
{ |
|
"epoch": 32.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7155, |
|
"step": 27200 |
|
}, |
|
{ |
|
"epoch": 32.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7264, |
|
"step": 27300 |
|
}, |
|
{ |
|
"epoch": 32.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7139, |
|
"step": 27400 |
|
}, |
|
{ |
|
"epoch": 32.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7467, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 32.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7192, |
|
"step": 27600 |
|
}, |
|
{ |
|
"epoch": 32.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7297, |
|
"step": 27700 |
|
}, |
|
{ |
|
"epoch": 32.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6969, |
|
"step": 27800 |
|
}, |
|
{ |
|
"epoch": 32.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7302, |
|
"step": 27900 |
|
}, |
|
{ |
|
"epoch": 32.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6971, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 33.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7248, |
|
"step": 28100 |
|
}, |
|
{ |
|
"epoch": 33.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7306, |
|
"step": 28200 |
|
}, |
|
{ |
|
"epoch": 33.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7182, |
|
"step": 28300 |
|
}, |
|
{ |
|
"epoch": 33.41, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7212, |
|
"step": 28400 |
|
}, |
|
{ |
|
"epoch": 33.53, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7015, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 33.65, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7072, |
|
"step": 28600 |
|
}, |
|
{ |
|
"epoch": 33.76, |
|
"learning_rate": 5e-06, |
|
"loss": 0.714, |
|
"step": 28700 |
|
}, |
|
{ |
|
"epoch": 33.88, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7088, |
|
"step": 28800 |
|
}, |
|
{ |
|
"epoch": 34.0, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6743, |
|
"step": 28900 |
|
}, |
|
{ |
|
"epoch": 34.12, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7316, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 34.24, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7142, |
|
"step": 29100 |
|
}, |
|
{ |
|
"epoch": 34.35, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6911, |
|
"step": 29200 |
|
}, |
|
{ |
|
"epoch": 34.47, |
|
"learning_rate": 5e-06, |
|
"loss": 0.713, |
|
"step": 29300 |
|
}, |
|
{ |
|
"epoch": 34.59, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7091, |
|
"step": 29400 |
|
}, |
|
{ |
|
"epoch": 34.71, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7057, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 34.82, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6711, |
|
"step": 29600 |
|
}, |
|
{ |
|
"epoch": 34.94, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7152, |
|
"step": 29700 |
|
}, |
|
{ |
|
"epoch": 35.06, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6721, |
|
"step": 29800 |
|
}, |
|
{ |
|
"epoch": 35.18, |
|
"learning_rate": 5e-06, |
|
"loss": 0.7131, |
|
"step": 29900 |
|
}, |
|
{ |
|
"epoch": 35.29, |
|
"learning_rate": 5e-06, |
|
"loss": 0.6883, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 35.29, |
|
"eval_cer": 0.11668475732671732, |
|
"eval_loss": 0.5099760293960571, |
|
"eval_runtime": 8.0478, |
|
"eval_samples_per_second": 37.277, |
|
"eval_steps_per_second": 18.639, |
|
"eval_wer": 0.4008547008547009, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 35.41, |
|
"learning_rate": 4.9850000000000006e-06, |
|
"loss": 0.6949, |
|
"step": 30100 |
|
}, |
|
{ |
|
"epoch": 35.53, |
|
"learning_rate": 4.968500000000001e-06, |
|
"loss": 0.6943, |
|
"step": 30200 |
|
}, |
|
{ |
|
"epoch": 35.65, |
|
"learning_rate": 4.951833333333333e-06, |
|
"loss": 0.705, |
|
"step": 30300 |
|
}, |
|
{ |
|
"epoch": 35.76, |
|
"learning_rate": 4.935166666666667e-06, |
|
"loss": 0.6903, |
|
"step": 30400 |
|
}, |
|
{ |
|
"epoch": 35.88, |
|
"learning_rate": 4.9185000000000004e-06, |
|
"loss": 0.6813, |
|
"step": 30500 |
|
}, |
|
{ |
|
"epoch": 36.0, |
|
"learning_rate": 4.901833333333334e-06, |
|
"loss": 0.6993, |
|
"step": 30600 |
|
}, |
|
{ |
|
"epoch": 36.12, |
|
"learning_rate": 4.885166666666667e-06, |
|
"loss": 0.7115, |
|
"step": 30700 |
|
}, |
|
{ |
|
"epoch": 36.24, |
|
"learning_rate": 4.8685e-06, |
|
"loss": 0.6808, |
|
"step": 30800 |
|
}, |
|
{ |
|
"epoch": 36.35, |
|
"learning_rate": 4.851833333333334e-06, |
|
"loss": 0.6784, |
|
"step": 30900 |
|
}, |
|
{ |
|
"epoch": 36.47, |
|
"learning_rate": 4.8351666666666665e-06, |
|
"loss": 0.6953, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 36.59, |
|
"learning_rate": 4.8185000000000005e-06, |
|
"loss": 0.6499, |
|
"step": 31100 |
|
}, |
|
{ |
|
"epoch": 36.71, |
|
"learning_rate": 4.802000000000001e-06, |
|
"loss": 0.6982, |
|
"step": 31200 |
|
}, |
|
{ |
|
"epoch": 36.82, |
|
"learning_rate": 4.785333333333333e-06, |
|
"loss": 0.7057, |
|
"step": 31300 |
|
}, |
|
{ |
|
"epoch": 36.94, |
|
"learning_rate": 4.768666666666667e-06, |
|
"loss": 0.7036, |
|
"step": 31400 |
|
}, |
|
{ |
|
"epoch": 37.06, |
|
"learning_rate": 4.752e-06, |
|
"loss": 0.6677, |
|
"step": 31500 |
|
}, |
|
{ |
|
"epoch": 37.18, |
|
"learning_rate": 4.735333333333334e-06, |
|
"loss": 0.6643, |
|
"step": 31600 |
|
}, |
|
{ |
|
"epoch": 37.29, |
|
"learning_rate": 4.718666666666667e-06, |
|
"loss": 0.7145, |
|
"step": 31700 |
|
}, |
|
{ |
|
"epoch": 37.41, |
|
"learning_rate": 4.702e-06, |
|
"loss": 0.6781, |
|
"step": 31800 |
|
}, |
|
{ |
|
"epoch": 37.53, |
|
"learning_rate": 4.685333333333334e-06, |
|
"loss": 0.69, |
|
"step": 31900 |
|
}, |
|
{ |
|
"epoch": 37.65, |
|
"learning_rate": 4.668666666666667e-06, |
|
"loss": 0.6714, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 37.76, |
|
"learning_rate": 4.6520000000000005e-06, |
|
"loss": 0.67, |
|
"step": 32100 |
|
}, |
|
{ |
|
"epoch": 37.88, |
|
"learning_rate": 4.635333333333334e-06, |
|
"loss": 0.6496, |
|
"step": 32200 |
|
}, |
|
{ |
|
"epoch": 38.0, |
|
"learning_rate": 4.618666666666667e-06, |
|
"loss": 0.663, |
|
"step": 32300 |
|
}, |
|
{ |
|
"epoch": 38.12, |
|
"learning_rate": 4.602e-06, |
|
"loss": 0.6378, |
|
"step": 32400 |
|
}, |
|
{ |
|
"epoch": 38.24, |
|
"learning_rate": 4.585333333333334e-06, |
|
"loss": 0.694, |
|
"step": 32500 |
|
}, |
|
{ |
|
"epoch": 38.35, |
|
"learning_rate": 4.5686666666666666e-06, |
|
"loss": 0.6994, |
|
"step": 32600 |
|
}, |
|
{ |
|
"epoch": 38.47, |
|
"learning_rate": 4.552000000000001e-06, |
|
"loss": 0.6652, |
|
"step": 32700 |
|
}, |
|
{ |
|
"epoch": 38.59, |
|
"learning_rate": 4.535333333333334e-06, |
|
"loss": 0.6658, |
|
"step": 32800 |
|
}, |
|
{ |
|
"epoch": 38.71, |
|
"learning_rate": 4.518666666666667e-06, |
|
"loss": 0.6388, |
|
"step": 32900 |
|
}, |
|
{ |
|
"epoch": 38.82, |
|
"learning_rate": 4.502e-06, |
|
"loss": 0.6541, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 38.94, |
|
"learning_rate": 4.4853333333333335e-06, |
|
"loss": 0.69, |
|
"step": 33100 |
|
}, |
|
{ |
|
"epoch": 39.06, |
|
"learning_rate": 4.4686666666666675e-06, |
|
"loss": 0.6705, |
|
"step": 33200 |
|
}, |
|
{ |
|
"epoch": 39.18, |
|
"learning_rate": 4.452e-06, |
|
"loss": 0.6568, |
|
"step": 33300 |
|
}, |
|
{ |
|
"epoch": 39.29, |
|
"learning_rate": 4.435333333333334e-06, |
|
"loss": 0.6731, |
|
"step": 33400 |
|
}, |
|
{ |
|
"epoch": 39.41, |
|
"learning_rate": 4.418666666666667e-06, |
|
"loss": 0.6174, |
|
"step": 33500 |
|
}, |
|
{ |
|
"epoch": 39.53, |
|
"learning_rate": 4.4021666666666666e-06, |
|
"loss": 0.6488, |
|
"step": 33600 |
|
}, |
|
{ |
|
"epoch": 39.65, |
|
"learning_rate": 4.385500000000001e-06, |
|
"loss": 0.6672, |
|
"step": 33700 |
|
}, |
|
{ |
|
"epoch": 39.76, |
|
"learning_rate": 4.368833333333334e-06, |
|
"loss": 0.6654, |
|
"step": 33800 |
|
}, |
|
{ |
|
"epoch": 39.88, |
|
"learning_rate": 4.352166666666667e-06, |
|
"loss": 0.6484, |
|
"step": 33900 |
|
}, |
|
{ |
|
"epoch": 40.0, |
|
"learning_rate": 4.3355e-06, |
|
"loss": 0.6738, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 40.12, |
|
"learning_rate": 4.3188333333333335e-06, |
|
"loss": 0.6553, |
|
"step": 34100 |
|
}, |
|
{ |
|
"epoch": 40.24, |
|
"learning_rate": 4.3021666666666675e-06, |
|
"loss": 0.6726, |
|
"step": 34200 |
|
}, |
|
{ |
|
"epoch": 40.35, |
|
"learning_rate": 4.2855e-06, |
|
"loss": 0.6605, |
|
"step": 34300 |
|
}, |
|
{ |
|
"epoch": 40.47, |
|
"learning_rate": 4.268833333333334e-06, |
|
"loss": 0.6471, |
|
"step": 34400 |
|
}, |
|
{ |
|
"epoch": 40.59, |
|
"learning_rate": 4.252166666666667e-06, |
|
"loss": 0.6644, |
|
"step": 34500 |
|
}, |
|
{ |
|
"epoch": 40.71, |
|
"learning_rate": 4.2355e-06, |
|
"loss": 0.6396, |
|
"step": 34600 |
|
}, |
|
{ |
|
"epoch": 40.82, |
|
"learning_rate": 4.2188333333333336e-06, |
|
"loss": 0.6682, |
|
"step": 34700 |
|
}, |
|
{ |
|
"epoch": 40.94, |
|
"learning_rate": 4.202166666666667e-06, |
|
"loss": 0.6269, |
|
"step": 34800 |
|
}, |
|
{ |
|
"epoch": 41.06, |
|
"learning_rate": 4.1855e-06, |
|
"loss": 0.6254, |
|
"step": 34900 |
|
}, |
|
{ |
|
"epoch": 41.18, |
|
"learning_rate": 4.168833333333333e-06, |
|
"loss": 0.6285, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 41.29, |
|
"learning_rate": 4.152166666666667e-06, |
|
"loss": 0.6405, |
|
"step": 35100 |
|
}, |
|
{ |
|
"epoch": 41.41, |
|
"learning_rate": 4.1355000000000005e-06, |
|
"loss": 0.6531, |
|
"step": 35200 |
|
}, |
|
{ |
|
"epoch": 41.53, |
|
"learning_rate": 4.118833333333334e-06, |
|
"loss": 0.626, |
|
"step": 35300 |
|
}, |
|
{ |
|
"epoch": 41.65, |
|
"learning_rate": 4.102166666666667e-06, |
|
"loss": 0.6745, |
|
"step": 35400 |
|
}, |
|
{ |
|
"epoch": 41.76, |
|
"learning_rate": 4.085500000000001e-06, |
|
"loss": 0.6601, |
|
"step": 35500 |
|
}, |
|
{ |
|
"epoch": 41.88, |
|
"learning_rate": 4.068833333333333e-06, |
|
"loss": 0.6223, |
|
"step": 35600 |
|
}, |
|
{ |
|
"epoch": 42.0, |
|
"learning_rate": 4.052166666666667e-06, |
|
"loss": 0.6439, |
|
"step": 35700 |
|
}, |
|
{ |
|
"epoch": 42.12, |
|
"learning_rate": 4.035500000000001e-06, |
|
"loss": 0.6274, |
|
"step": 35800 |
|
}, |
|
{ |
|
"epoch": 42.24, |
|
"learning_rate": 4.018833333333334e-06, |
|
"loss": 0.6163, |
|
"step": 35900 |
|
}, |
|
{ |
|
"epoch": 42.35, |
|
"learning_rate": 4.002166666666667e-06, |
|
"loss": 0.651, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 42.47, |
|
"learning_rate": 3.9855e-06, |
|
"loss": 0.6341, |
|
"step": 36100 |
|
}, |
|
{ |
|
"epoch": 42.59, |
|
"learning_rate": 3.968833333333333e-06, |
|
"loss": 0.6236, |
|
"step": 36200 |
|
}, |
|
{ |
|
"epoch": 42.71, |
|
"learning_rate": 3.952166666666667e-06, |
|
"loss": 0.6525, |
|
"step": 36300 |
|
}, |
|
{ |
|
"epoch": 42.82, |
|
"learning_rate": 3.935500000000001e-06, |
|
"loss": 0.653, |
|
"step": 36400 |
|
}, |
|
{ |
|
"epoch": 42.94, |
|
"learning_rate": 3.918833333333333e-06, |
|
"loss": 0.6356, |
|
"step": 36500 |
|
}, |
|
{ |
|
"epoch": 43.06, |
|
"learning_rate": 3.902166666666667e-06, |
|
"loss": 0.6413, |
|
"step": 36600 |
|
}, |
|
{ |
|
"epoch": 43.18, |
|
"learning_rate": 3.8855e-06, |
|
"loss": 0.636, |
|
"step": 36700 |
|
}, |
|
{ |
|
"epoch": 43.29, |
|
"learning_rate": 3.8688333333333335e-06, |
|
"loss": 0.6495, |
|
"step": 36800 |
|
}, |
|
{ |
|
"epoch": 43.41, |
|
"learning_rate": 3.852166666666667e-06, |
|
"loss": 0.6472, |
|
"step": 36900 |
|
}, |
|
{ |
|
"epoch": 43.53, |
|
"learning_rate": 3.835666666666667e-06, |
|
"loss": 0.6387, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 43.65, |
|
"learning_rate": 3.819e-06, |
|
"loss": 0.5985, |
|
"step": 37100 |
|
}, |
|
{ |
|
"epoch": 43.76, |
|
"learning_rate": 3.8023333333333334e-06, |
|
"loss": 0.6109, |
|
"step": 37200 |
|
}, |
|
{ |
|
"epoch": 43.88, |
|
"learning_rate": 3.785666666666667e-06, |
|
"loss": 0.6498, |
|
"step": 37300 |
|
}, |
|
{ |
|
"epoch": 44.0, |
|
"learning_rate": 3.7690000000000003e-06, |
|
"loss": 0.6243, |
|
"step": 37400 |
|
}, |
|
{ |
|
"epoch": 44.12, |
|
"learning_rate": 3.7523333333333335e-06, |
|
"loss": 0.6068, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 44.24, |
|
"learning_rate": 3.735666666666667e-06, |
|
"loss": 0.6291, |
|
"step": 37600 |
|
}, |
|
{ |
|
"epoch": 44.35, |
|
"learning_rate": 3.7190000000000003e-06, |
|
"loss": 0.6021, |
|
"step": 37700 |
|
}, |
|
{ |
|
"epoch": 44.47, |
|
"learning_rate": 3.702333333333334e-06, |
|
"loss": 0.6444, |
|
"step": 37800 |
|
}, |
|
{ |
|
"epoch": 44.59, |
|
"learning_rate": 3.6856666666666667e-06, |
|
"loss": 0.6265, |
|
"step": 37900 |
|
}, |
|
{ |
|
"epoch": 44.71, |
|
"learning_rate": 3.6690000000000004e-06, |
|
"loss": 0.6596, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 44.82, |
|
"learning_rate": 3.652333333333334e-06, |
|
"loss": 0.6339, |
|
"step": 38100 |
|
}, |
|
{ |
|
"epoch": 44.94, |
|
"learning_rate": 3.6356666666666668e-06, |
|
"loss": 0.5719, |
|
"step": 38200 |
|
}, |
|
{ |
|
"epoch": 45.06, |
|
"learning_rate": 3.6190000000000004e-06, |
|
"loss": 0.6112, |
|
"step": 38300 |
|
}, |
|
{ |
|
"epoch": 45.18, |
|
"learning_rate": 3.6023333333333336e-06, |
|
"loss": 0.5938, |
|
"step": 38400 |
|
}, |
|
{ |
|
"epoch": 45.29, |
|
"learning_rate": 3.585666666666667e-06, |
|
"loss": 0.6407, |
|
"step": 38500 |
|
}, |
|
{ |
|
"epoch": 45.41, |
|
"learning_rate": 3.569e-06, |
|
"loss": 0.6178, |
|
"step": 38600 |
|
}, |
|
{ |
|
"epoch": 45.53, |
|
"learning_rate": 3.5523333333333337e-06, |
|
"loss": 0.6155, |
|
"step": 38700 |
|
}, |
|
{ |
|
"epoch": 45.65, |
|
"learning_rate": 3.535666666666667e-06, |
|
"loss": 0.6266, |
|
"step": 38800 |
|
}, |
|
{ |
|
"epoch": 45.76, |
|
"learning_rate": 3.519e-06, |
|
"loss": 0.6224, |
|
"step": 38900 |
|
}, |
|
{ |
|
"epoch": 45.88, |
|
"learning_rate": 3.5023333333333337e-06, |
|
"loss": 0.6226, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 46.0, |
|
"learning_rate": 3.4856666666666674e-06, |
|
"loss": 0.6466, |
|
"step": 39100 |
|
}, |
|
{ |
|
"epoch": 46.12, |
|
"learning_rate": 3.469e-06, |
|
"loss": 0.6224, |
|
"step": 39200 |
|
}, |
|
{ |
|
"epoch": 46.24, |
|
"learning_rate": 3.452333333333334e-06, |
|
"loss": 0.6353, |
|
"step": 39300 |
|
}, |
|
{ |
|
"epoch": 46.35, |
|
"learning_rate": 3.435666666666667e-06, |
|
"loss": 0.6275, |
|
"step": 39400 |
|
}, |
|
{ |
|
"epoch": 46.47, |
|
"learning_rate": 3.4190000000000002e-06, |
|
"loss": 0.5966, |
|
"step": 39500 |
|
}, |
|
{ |
|
"epoch": 46.59, |
|
"learning_rate": 3.4023333333333334e-06, |
|
"loss": 0.5977, |
|
"step": 39600 |
|
}, |
|
{ |
|
"epoch": 46.71, |
|
"learning_rate": 3.385666666666667e-06, |
|
"loss": 0.6113, |
|
"step": 39700 |
|
}, |
|
{ |
|
"epoch": 46.82, |
|
"learning_rate": 3.369e-06, |
|
"loss": 0.5967, |
|
"step": 39800 |
|
}, |
|
{ |
|
"epoch": 46.94, |
|
"learning_rate": 3.3523333333333335e-06, |
|
"loss": 0.6262, |
|
"step": 39900 |
|
}, |
|
{ |
|
"epoch": 47.06, |
|
"learning_rate": 3.3358333333333337e-06, |
|
"loss": 0.5981, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 47.06, |
|
"eval_cer": 0.1052101100945883, |
|
"eval_loss": 0.48587092757225037, |
|
"eval_runtime": 8.036, |
|
"eval_samples_per_second": 37.332, |
|
"eval_steps_per_second": 18.666, |
|
"eval_wer": 0.3572649572649573, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 47.18, |
|
"learning_rate": 3.3191666666666674e-06, |
|
"loss": 0.6019, |
|
"step": 40100 |
|
}, |
|
{ |
|
"epoch": 47.29, |
|
"learning_rate": 3.3025e-06, |
|
"loss": 0.5866, |
|
"step": 40200 |
|
}, |
|
{ |
|
"epoch": 47.41, |
|
"learning_rate": 3.2858333333333338e-06, |
|
"loss": 0.5983, |
|
"step": 40300 |
|
}, |
|
{ |
|
"epoch": 47.53, |
|
"learning_rate": 3.269166666666667e-06, |
|
"loss": 0.5854, |
|
"step": 40400 |
|
}, |
|
{ |
|
"epoch": 47.65, |
|
"learning_rate": 3.2525e-06, |
|
"loss": 0.5665, |
|
"step": 40500 |
|
}, |
|
{ |
|
"epoch": 47.76, |
|
"learning_rate": 3.2358333333333334e-06, |
|
"loss": 0.638, |
|
"step": 40600 |
|
}, |
|
{ |
|
"epoch": 47.88, |
|
"learning_rate": 3.219166666666667e-06, |
|
"loss": 0.6153, |
|
"step": 40700 |
|
}, |
|
{ |
|
"epoch": 48.0, |
|
"learning_rate": 3.2025000000000003e-06, |
|
"loss": 0.6046, |
|
"step": 40800 |
|
}, |
|
{ |
|
"epoch": 48.12, |
|
"learning_rate": 3.1858333333333335e-06, |
|
"loss": 0.5652, |
|
"step": 40900 |
|
}, |
|
{ |
|
"epoch": 48.24, |
|
"learning_rate": 3.169166666666667e-06, |
|
"loss": 0.6097, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 48.35, |
|
"learning_rate": 3.1525e-06, |
|
"loss": 0.5932, |
|
"step": 41100 |
|
}, |
|
{ |
|
"epoch": 48.47, |
|
"learning_rate": 3.1358333333333335e-06, |
|
"loss": 0.6151, |
|
"step": 41200 |
|
}, |
|
{ |
|
"epoch": 48.59, |
|
"learning_rate": 3.119166666666667e-06, |
|
"loss": 0.6048, |
|
"step": 41300 |
|
}, |
|
{ |
|
"epoch": 48.71, |
|
"learning_rate": 3.1025000000000004e-06, |
|
"loss": 0.6, |
|
"step": 41400 |
|
}, |
|
{ |
|
"epoch": 48.82, |
|
"learning_rate": 3.0858333333333336e-06, |
|
"loss": 0.5761, |
|
"step": 41500 |
|
}, |
|
{ |
|
"epoch": 48.94, |
|
"learning_rate": 3.0691666666666668e-06, |
|
"loss": 0.6254, |
|
"step": 41600 |
|
}, |
|
{ |
|
"epoch": 49.06, |
|
"learning_rate": 3.0525000000000004e-06, |
|
"loss": 0.5672, |
|
"step": 41700 |
|
}, |
|
{ |
|
"epoch": 49.18, |
|
"learning_rate": 3.035833333333333e-06, |
|
"loss": 0.6149, |
|
"step": 41800 |
|
}, |
|
{ |
|
"epoch": 49.29, |
|
"learning_rate": 3.019166666666667e-06, |
|
"loss": 0.5854, |
|
"step": 41900 |
|
}, |
|
{ |
|
"epoch": 49.41, |
|
"learning_rate": 3.0025000000000005e-06, |
|
"loss": 0.6052, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 49.53, |
|
"learning_rate": 2.9858333333333333e-06, |
|
"loss": 0.5895, |
|
"step": 42100 |
|
}, |
|
{ |
|
"epoch": 49.65, |
|
"learning_rate": 2.969166666666667e-06, |
|
"loss": 0.5834, |
|
"step": 42200 |
|
}, |
|
{ |
|
"epoch": 49.76, |
|
"learning_rate": 2.9525000000000005e-06, |
|
"loss": 0.6388, |
|
"step": 42300 |
|
}, |
|
{ |
|
"epoch": 49.88, |
|
"learning_rate": 2.9358333333333333e-06, |
|
"loss": 0.5918, |
|
"step": 42400 |
|
}, |
|
{ |
|
"epoch": 50.0, |
|
"learning_rate": 2.919166666666667e-06, |
|
"loss": 0.5773, |
|
"step": 42500 |
|
}, |
|
{ |
|
"epoch": 50.12, |
|
"learning_rate": 2.9025e-06, |
|
"loss": 0.6082, |
|
"step": 42600 |
|
}, |
|
{ |
|
"epoch": 50.24, |
|
"learning_rate": 2.8860000000000004e-06, |
|
"loss": 0.6115, |
|
"step": 42700 |
|
}, |
|
{ |
|
"epoch": 50.35, |
|
"learning_rate": 2.8693333333333336e-06, |
|
"loss": 0.5777, |
|
"step": 42800 |
|
}, |
|
{ |
|
"epoch": 50.47, |
|
"learning_rate": 2.852666666666667e-06, |
|
"loss": 0.5943, |
|
"step": 42900 |
|
}, |
|
{ |
|
"epoch": 50.59, |
|
"learning_rate": 2.8360000000000005e-06, |
|
"loss": 0.6074, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 50.71, |
|
"learning_rate": 2.8193333333333332e-06, |
|
"loss": 0.6122, |
|
"step": 43100 |
|
}, |
|
{ |
|
"epoch": 50.82, |
|
"learning_rate": 2.802666666666667e-06, |
|
"loss": 0.5838, |
|
"step": 43200 |
|
}, |
|
{ |
|
"epoch": 50.94, |
|
"learning_rate": 2.7860000000000005e-06, |
|
"loss": 0.58, |
|
"step": 43300 |
|
}, |
|
{ |
|
"epoch": 51.06, |
|
"learning_rate": 2.7693333333333333e-06, |
|
"loss": 0.5893, |
|
"step": 43400 |
|
}, |
|
{ |
|
"epoch": 51.18, |
|
"learning_rate": 2.752666666666667e-06, |
|
"loss": 0.5824, |
|
"step": 43500 |
|
}, |
|
{ |
|
"epoch": 51.29, |
|
"learning_rate": 2.736e-06, |
|
"loss": 0.5602, |
|
"step": 43600 |
|
}, |
|
{ |
|
"epoch": 51.41, |
|
"learning_rate": 2.7193333333333338e-06, |
|
"loss": 0.5984, |
|
"step": 43700 |
|
}, |
|
{ |
|
"epoch": 51.53, |
|
"learning_rate": 2.7026666666666666e-06, |
|
"loss": 0.598, |
|
"step": 43800 |
|
}, |
|
{ |
|
"epoch": 51.65, |
|
"learning_rate": 2.686e-06, |
|
"loss": 0.6005, |
|
"step": 43900 |
|
}, |
|
{ |
|
"epoch": 51.76, |
|
"learning_rate": 2.669333333333334e-06, |
|
"loss": 0.5941, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 51.88, |
|
"learning_rate": 2.6526666666666666e-06, |
|
"loss": 0.5956, |
|
"step": 44100 |
|
}, |
|
{ |
|
"epoch": 52.0, |
|
"learning_rate": 2.6360000000000003e-06, |
|
"loss": 0.5674, |
|
"step": 44200 |
|
}, |
|
{ |
|
"epoch": 52.12, |
|
"learning_rate": 2.619333333333334e-06, |
|
"loss": 0.5929, |
|
"step": 44300 |
|
}, |
|
{ |
|
"epoch": 52.24, |
|
"learning_rate": 2.6026666666666667e-06, |
|
"loss": 0.5803, |
|
"step": 44400 |
|
}, |
|
{ |
|
"epoch": 52.35, |
|
"learning_rate": 2.5860000000000003e-06, |
|
"loss": 0.5656, |
|
"step": 44500 |
|
}, |
|
{ |
|
"epoch": 52.47, |
|
"learning_rate": 2.5693333333333335e-06, |
|
"loss": 0.611, |
|
"step": 44600 |
|
}, |
|
{ |
|
"epoch": 52.59, |
|
"learning_rate": 2.5526666666666667e-06, |
|
"loss": 0.5677, |
|
"step": 44700 |
|
}, |
|
{ |
|
"epoch": 52.71, |
|
"learning_rate": 2.536e-06, |
|
"loss": 0.5909, |
|
"step": 44800 |
|
}, |
|
{ |
|
"epoch": 52.82, |
|
"learning_rate": 2.5193333333333336e-06, |
|
"loss": 0.5803, |
|
"step": 44900 |
|
}, |
|
{ |
|
"epoch": 52.94, |
|
"learning_rate": 2.5026666666666672e-06, |
|
"loss": 0.589, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 53.06, |
|
"learning_rate": 2.486e-06, |
|
"loss": 0.592, |
|
"step": 45100 |
|
}, |
|
{ |
|
"epoch": 53.18, |
|
"learning_rate": 2.4693333333333336e-06, |
|
"loss": 0.583, |
|
"step": 45200 |
|
}, |
|
{ |
|
"epoch": 53.29, |
|
"learning_rate": 2.452666666666667e-06, |
|
"loss": 0.5544, |
|
"step": 45300 |
|
}, |
|
{ |
|
"epoch": 53.41, |
|
"learning_rate": 2.4360000000000005e-06, |
|
"loss": 0.5524, |
|
"step": 45400 |
|
}, |
|
{ |
|
"epoch": 53.53, |
|
"learning_rate": 2.4193333333333337e-06, |
|
"loss": 0.5719, |
|
"step": 45500 |
|
}, |
|
{ |
|
"epoch": 53.65, |
|
"learning_rate": 2.402666666666667e-06, |
|
"loss": 0.5986, |
|
"step": 45600 |
|
}, |
|
{ |
|
"epoch": 53.76, |
|
"learning_rate": 2.386e-06, |
|
"loss": 0.5815, |
|
"step": 45700 |
|
}, |
|
{ |
|
"epoch": 53.88, |
|
"learning_rate": 2.3693333333333333e-06, |
|
"loss": 0.5761, |
|
"step": 45800 |
|
}, |
|
{ |
|
"epoch": 54.0, |
|
"learning_rate": 2.352666666666667e-06, |
|
"loss": 0.594, |
|
"step": 45900 |
|
}, |
|
{ |
|
"epoch": 54.12, |
|
"learning_rate": 2.336e-06, |
|
"loss": 0.5625, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 54.24, |
|
"learning_rate": 2.3195e-06, |
|
"loss": 0.5961, |
|
"step": 46100 |
|
}, |
|
{ |
|
"epoch": 54.35, |
|
"learning_rate": 2.3028333333333336e-06, |
|
"loss": 0.5907, |
|
"step": 46200 |
|
}, |
|
{ |
|
"epoch": 54.47, |
|
"learning_rate": 2.286166666666667e-06, |
|
"loss": 0.5821, |
|
"step": 46300 |
|
}, |
|
{ |
|
"epoch": 54.59, |
|
"learning_rate": 2.2695000000000005e-06, |
|
"loss": 0.5623, |
|
"step": 46400 |
|
}, |
|
{ |
|
"epoch": 54.71, |
|
"learning_rate": 2.2528333333333337e-06, |
|
"loss": 0.5477, |
|
"step": 46500 |
|
}, |
|
{ |
|
"epoch": 54.82, |
|
"learning_rate": 2.236166666666667e-06, |
|
"loss": 0.5685, |
|
"step": 46600 |
|
}, |
|
{ |
|
"epoch": 54.94, |
|
"learning_rate": 2.2195e-06, |
|
"loss": 0.566, |
|
"step": 46700 |
|
}, |
|
{ |
|
"epoch": 55.06, |
|
"learning_rate": 2.2028333333333333e-06, |
|
"loss": 0.5954, |
|
"step": 46800 |
|
}, |
|
{ |
|
"epoch": 55.18, |
|
"learning_rate": 2.1861666666666665e-06, |
|
"loss": 0.5681, |
|
"step": 46900 |
|
}, |
|
{ |
|
"epoch": 55.29, |
|
"learning_rate": 2.1695e-06, |
|
"loss": 0.5613, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 55.41, |
|
"learning_rate": 2.1528333333333334e-06, |
|
"loss": 0.6032, |
|
"step": 47100 |
|
}, |
|
{ |
|
"epoch": 55.53, |
|
"learning_rate": 2.136166666666667e-06, |
|
"loss": 0.574, |
|
"step": 47200 |
|
}, |
|
{ |
|
"epoch": 55.65, |
|
"learning_rate": 2.1195e-06, |
|
"loss": 0.576, |
|
"step": 47300 |
|
}, |
|
{ |
|
"epoch": 55.76, |
|
"learning_rate": 2.1028333333333334e-06, |
|
"loss": 0.5908, |
|
"step": 47400 |
|
}, |
|
{ |
|
"epoch": 55.88, |
|
"learning_rate": 2.086166666666667e-06, |
|
"loss": 0.5963, |
|
"step": 47500 |
|
}, |
|
{ |
|
"epoch": 56.0, |
|
"learning_rate": 2.0695000000000003e-06, |
|
"loss": 0.5514, |
|
"step": 47600 |
|
}, |
|
{ |
|
"epoch": 56.12, |
|
"learning_rate": 2.0528333333333335e-06, |
|
"loss": 0.5786, |
|
"step": 47700 |
|
}, |
|
{ |
|
"epoch": 56.24, |
|
"learning_rate": 2.0361666666666667e-06, |
|
"loss": 0.5802, |
|
"step": 47800 |
|
}, |
|
{ |
|
"epoch": 56.35, |
|
"learning_rate": 2.0195e-06, |
|
"loss": 0.5713, |
|
"step": 47900 |
|
}, |
|
{ |
|
"epoch": 56.47, |
|
"learning_rate": 2.0028333333333335e-06, |
|
"loss": 0.5573, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 56.59, |
|
"learning_rate": 1.9861666666666667e-06, |
|
"loss": 0.5811, |
|
"step": 48100 |
|
}, |
|
{ |
|
"epoch": 56.71, |
|
"learning_rate": 1.9695e-06, |
|
"loss": 0.581, |
|
"step": 48200 |
|
}, |
|
{ |
|
"epoch": 56.82, |
|
"learning_rate": 1.953e-06, |
|
"loss": 0.5859, |
|
"step": 48300 |
|
}, |
|
{ |
|
"epoch": 56.94, |
|
"learning_rate": 1.9363333333333334e-06, |
|
"loss": 0.5347, |
|
"step": 48400 |
|
}, |
|
{ |
|
"epoch": 57.06, |
|
"learning_rate": 1.919666666666667e-06, |
|
"loss": 0.5601, |
|
"step": 48500 |
|
}, |
|
{ |
|
"epoch": 57.18, |
|
"learning_rate": 1.903e-06, |
|
"loss": 0.5458, |
|
"step": 48600 |
|
}, |
|
{ |
|
"epoch": 57.29, |
|
"learning_rate": 1.8863333333333332e-06, |
|
"loss": 0.5625, |
|
"step": 48700 |
|
}, |
|
{ |
|
"epoch": 57.41, |
|
"learning_rate": 1.8696666666666669e-06, |
|
"loss": 0.5777, |
|
"step": 48800 |
|
}, |
|
{ |
|
"epoch": 57.53, |
|
"learning_rate": 1.853e-06, |
|
"loss": 0.5575, |
|
"step": 48900 |
|
}, |
|
{ |
|
"epoch": 57.65, |
|
"learning_rate": 1.8363333333333335e-06, |
|
"loss": 0.5938, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 57.76, |
|
"learning_rate": 1.8196666666666667e-06, |
|
"loss": 0.538, |
|
"step": 49100 |
|
}, |
|
{ |
|
"epoch": 57.88, |
|
"learning_rate": 1.803e-06, |
|
"loss": 0.5787, |
|
"step": 49200 |
|
}, |
|
{ |
|
"epoch": 58.0, |
|
"learning_rate": 1.7863333333333336e-06, |
|
"loss": 0.57, |
|
"step": 49300 |
|
}, |
|
{ |
|
"epoch": 58.12, |
|
"learning_rate": 1.7696666666666668e-06, |
|
"loss": 0.5726, |
|
"step": 49400 |
|
}, |
|
{ |
|
"epoch": 58.24, |
|
"learning_rate": 1.7530000000000002e-06, |
|
"loss": 0.5859, |
|
"step": 49500 |
|
}, |
|
{ |
|
"epoch": 58.35, |
|
"learning_rate": 1.7363333333333334e-06, |
|
"loss": 0.5675, |
|
"step": 49600 |
|
}, |
|
{ |
|
"epoch": 58.47, |
|
"learning_rate": 1.7196666666666666e-06, |
|
"loss": 0.5726, |
|
"step": 49700 |
|
}, |
|
{ |
|
"epoch": 58.59, |
|
"learning_rate": 1.7030000000000003e-06, |
|
"loss": 0.5534, |
|
"step": 49800 |
|
}, |
|
{ |
|
"epoch": 58.71, |
|
"learning_rate": 1.6863333333333335e-06, |
|
"loss": 0.5703, |
|
"step": 49900 |
|
}, |
|
{ |
|
"epoch": 58.82, |
|
"learning_rate": 1.6696666666666669e-06, |
|
"loss": 0.5618, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 58.82, |
|
"eval_cer": 0.09924019227787254, |
|
"eval_loss": 0.4731317162513733, |
|
"eval_runtime": 8.1161, |
|
"eval_samples_per_second": 36.964, |
|
"eval_steps_per_second": 18.482, |
|
"eval_wer": 0.33589743589743587, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 58.94, |
|
"learning_rate": 1.653e-06, |
|
"loss": 0.5616, |
|
"step": 50100 |
|
}, |
|
{ |
|
"epoch": 59.06, |
|
"learning_rate": 1.6363333333333333e-06, |
|
"loss": 0.5285, |
|
"step": 50200 |
|
}, |
|
{ |
|
"epoch": 59.18, |
|
"learning_rate": 1.619666666666667e-06, |
|
"loss": 0.5561, |
|
"step": 50300 |
|
}, |
|
{ |
|
"epoch": 59.29, |
|
"learning_rate": 1.6030000000000002e-06, |
|
"loss": 0.5872, |
|
"step": 50400 |
|
}, |
|
{ |
|
"epoch": 59.41, |
|
"learning_rate": 1.5863333333333334e-06, |
|
"loss": 0.559, |
|
"step": 50500 |
|
}, |
|
{ |
|
"epoch": 59.53, |
|
"learning_rate": 1.5696666666666668e-06, |
|
"loss": 0.5518, |
|
"step": 50600 |
|
}, |
|
{ |
|
"epoch": 59.65, |
|
"learning_rate": 1.553e-06, |
|
"loss": 0.5641, |
|
"step": 50700 |
|
}, |
|
{ |
|
"epoch": 59.76, |
|
"learning_rate": 1.5363333333333336e-06, |
|
"loss": 0.5567, |
|
"step": 50800 |
|
}, |
|
{ |
|
"epoch": 59.88, |
|
"learning_rate": 1.5196666666666668e-06, |
|
"loss": 0.5475, |
|
"step": 50900 |
|
}, |
|
{ |
|
"epoch": 60.0, |
|
"learning_rate": 1.503e-06, |
|
"loss": 0.5741, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 60.12, |
|
"learning_rate": 1.4863333333333335e-06, |
|
"loss": 0.5537, |
|
"step": 51100 |
|
}, |
|
{ |
|
"epoch": 60.24, |
|
"learning_rate": 1.4696666666666667e-06, |
|
"loss": 0.5887, |
|
"step": 51200 |
|
}, |
|
{ |
|
"epoch": 60.35, |
|
"learning_rate": 1.4530000000000003e-06, |
|
"loss": 0.5697, |
|
"step": 51300 |
|
}, |
|
{ |
|
"epoch": 60.47, |
|
"learning_rate": 1.4363333333333335e-06, |
|
"loss": 0.5254, |
|
"step": 51400 |
|
}, |
|
{ |
|
"epoch": 60.59, |
|
"learning_rate": 1.4196666666666667e-06, |
|
"loss": 0.5531, |
|
"step": 51500 |
|
}, |
|
{ |
|
"epoch": 60.71, |
|
"learning_rate": 1.4030000000000002e-06, |
|
"loss": 0.5752, |
|
"step": 51600 |
|
}, |
|
{ |
|
"epoch": 60.82, |
|
"learning_rate": 1.3865e-06, |
|
"loss": 0.5885, |
|
"step": 51700 |
|
}, |
|
{ |
|
"epoch": 60.94, |
|
"learning_rate": 1.3698333333333336e-06, |
|
"loss": 0.5348, |
|
"step": 51800 |
|
}, |
|
{ |
|
"epoch": 61.06, |
|
"learning_rate": 1.3531666666666668e-06, |
|
"loss": 0.5477, |
|
"step": 51900 |
|
}, |
|
{ |
|
"epoch": 61.18, |
|
"learning_rate": 1.3365e-06, |
|
"loss": 0.5655, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 61.29, |
|
"learning_rate": 1.3198333333333335e-06, |
|
"loss": 0.5846, |
|
"step": 52100 |
|
}, |
|
{ |
|
"epoch": 61.41, |
|
"learning_rate": 1.3031666666666667e-06, |
|
"loss": 0.5345, |
|
"step": 52200 |
|
}, |
|
{ |
|
"epoch": 61.53, |
|
"learning_rate": 1.2864999999999999e-06, |
|
"loss": 0.5482, |
|
"step": 52300 |
|
}, |
|
{ |
|
"epoch": 61.65, |
|
"learning_rate": 1.2698333333333335e-06, |
|
"loss": 0.5474, |
|
"step": 52400 |
|
}, |
|
{ |
|
"epoch": 61.76, |
|
"learning_rate": 1.2531666666666667e-06, |
|
"loss": 0.5829, |
|
"step": 52500 |
|
}, |
|
{ |
|
"epoch": 61.88, |
|
"learning_rate": 1.2365000000000001e-06, |
|
"loss": 0.5268, |
|
"step": 52600 |
|
}, |
|
{ |
|
"epoch": 62.0, |
|
"learning_rate": 1.2198333333333334e-06, |
|
"loss": 0.5452, |
|
"step": 52700 |
|
}, |
|
{ |
|
"epoch": 62.12, |
|
"learning_rate": 1.2031666666666668e-06, |
|
"loss": 0.5627, |
|
"step": 52800 |
|
}, |
|
{ |
|
"epoch": 62.24, |
|
"learning_rate": 1.1865000000000002e-06, |
|
"loss": 0.5335, |
|
"step": 52900 |
|
}, |
|
{ |
|
"epoch": 62.35, |
|
"learning_rate": 1.1698333333333334e-06, |
|
"loss": 0.586, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 62.47, |
|
"learning_rate": 1.1531666666666668e-06, |
|
"loss": 0.533, |
|
"step": 53100 |
|
}, |
|
{ |
|
"epoch": 62.59, |
|
"learning_rate": 1.1365e-06, |
|
"loss": 0.5268, |
|
"step": 53200 |
|
}, |
|
{ |
|
"epoch": 62.71, |
|
"learning_rate": 1.1198333333333335e-06, |
|
"loss": 0.5653, |
|
"step": 53300 |
|
}, |
|
{ |
|
"epoch": 62.82, |
|
"learning_rate": 1.1031666666666667e-06, |
|
"loss": 0.5776, |
|
"step": 53400 |
|
}, |
|
{ |
|
"epoch": 62.94, |
|
"learning_rate": 1.0865e-06, |
|
"loss": 0.5267, |
|
"step": 53500 |
|
}, |
|
{ |
|
"epoch": 63.06, |
|
"learning_rate": 1.0698333333333335e-06, |
|
"loss": 0.5701, |
|
"step": 53600 |
|
}, |
|
{ |
|
"epoch": 63.18, |
|
"learning_rate": 1.0531666666666667e-06, |
|
"loss": 0.529, |
|
"step": 53700 |
|
}, |
|
{ |
|
"epoch": 63.29, |
|
"learning_rate": 1.0365000000000002e-06, |
|
"loss": 0.5636, |
|
"step": 53800 |
|
}, |
|
{ |
|
"epoch": 63.41, |
|
"learning_rate": 1.0198333333333334e-06, |
|
"loss": 0.5399, |
|
"step": 53900 |
|
}, |
|
{ |
|
"epoch": 63.53, |
|
"learning_rate": 1.0031666666666668e-06, |
|
"loss": 0.5481, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 63.65, |
|
"learning_rate": 9.865e-07, |
|
"loss": 0.5492, |
|
"step": 54100 |
|
}, |
|
{ |
|
"epoch": 63.76, |
|
"learning_rate": 9.698333333333334e-07, |
|
"loss": 0.576, |
|
"step": 54200 |
|
}, |
|
{ |
|
"epoch": 63.88, |
|
"learning_rate": 9.531666666666666e-07, |
|
"loss": 0.5833, |
|
"step": 54300 |
|
}, |
|
{ |
|
"epoch": 64.0, |
|
"learning_rate": 9.365000000000001e-07, |
|
"loss": 0.5444, |
|
"step": 54400 |
|
}, |
|
{ |
|
"epoch": 64.12, |
|
"learning_rate": 9.198333333333334e-07, |
|
"loss": 0.5716, |
|
"step": 54500 |
|
}, |
|
{ |
|
"epoch": 64.24, |
|
"learning_rate": 9.031666666666668e-07, |
|
"loss": 0.5418, |
|
"step": 54600 |
|
}, |
|
{ |
|
"epoch": 64.35, |
|
"learning_rate": 8.865000000000001e-07, |
|
"loss": 0.5329, |
|
"step": 54700 |
|
}, |
|
{ |
|
"epoch": 64.47, |
|
"learning_rate": 8.698333333333333e-07, |
|
"loss": 0.5762, |
|
"step": 54800 |
|
}, |
|
{ |
|
"epoch": 64.59, |
|
"learning_rate": 8.531666666666667e-07, |
|
"loss": 0.5156, |
|
"step": 54900 |
|
}, |
|
{ |
|
"epoch": 64.71, |
|
"learning_rate": 8.366666666666668e-07, |
|
"loss": 0.5502, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 64.82, |
|
"learning_rate": 8.200000000000001e-07, |
|
"loss": 0.5556, |
|
"step": 55100 |
|
}, |
|
{ |
|
"epoch": 64.94, |
|
"learning_rate": 8.033333333333335e-07, |
|
"loss": 0.5585, |
|
"step": 55200 |
|
}, |
|
{ |
|
"epoch": 65.06, |
|
"learning_rate": 7.866666666666667e-07, |
|
"loss": 0.5561, |
|
"step": 55300 |
|
}, |
|
{ |
|
"epoch": 65.18, |
|
"learning_rate": 7.7e-07, |
|
"loss": 0.5365, |
|
"step": 55400 |
|
}, |
|
{ |
|
"epoch": 65.29, |
|
"learning_rate": 7.533333333333335e-07, |
|
"loss": 0.5324, |
|
"step": 55500 |
|
}, |
|
{ |
|
"epoch": 65.41, |
|
"learning_rate": 7.366666666666668e-07, |
|
"loss": 0.5634, |
|
"step": 55600 |
|
}, |
|
{ |
|
"epoch": 65.53, |
|
"learning_rate": 7.2e-07, |
|
"loss": 0.5632, |
|
"step": 55700 |
|
}, |
|
{ |
|
"epoch": 65.65, |
|
"learning_rate": 7.033333333333334e-07, |
|
"loss": 0.5343, |
|
"step": 55800 |
|
}, |
|
{ |
|
"epoch": 65.76, |
|
"learning_rate": 6.866666666666667e-07, |
|
"loss": 0.5743, |
|
"step": 55900 |
|
}, |
|
{ |
|
"epoch": 65.88, |
|
"learning_rate": 6.7e-07, |
|
"loss": 0.5488, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 66.0, |
|
"learning_rate": 6.533333333333334e-07, |
|
"loss": 0.5572, |
|
"step": 56100 |
|
}, |
|
{ |
|
"epoch": 66.12, |
|
"learning_rate": 6.366666666666667e-07, |
|
"loss": 0.5544, |
|
"step": 56200 |
|
}, |
|
{ |
|
"epoch": 66.24, |
|
"learning_rate": 6.200000000000001e-07, |
|
"loss": 0.5544, |
|
"step": 56300 |
|
}, |
|
{ |
|
"epoch": 66.35, |
|
"learning_rate": 6.033333333333334e-07, |
|
"loss": 0.5441, |
|
"step": 56400 |
|
}, |
|
{ |
|
"epoch": 66.47, |
|
"learning_rate": 5.866666666666667e-07, |
|
"loss": 0.546, |
|
"step": 56500 |
|
}, |
|
{ |
|
"epoch": 66.59, |
|
"learning_rate": 5.7e-07, |
|
"loss": 0.5338, |
|
"step": 56600 |
|
}, |
|
{ |
|
"epoch": 66.71, |
|
"learning_rate": 5.533333333333334e-07, |
|
"loss": 0.5499, |
|
"step": 56700 |
|
}, |
|
{ |
|
"epoch": 66.82, |
|
"learning_rate": 5.366666666666667e-07, |
|
"loss": 0.5315, |
|
"step": 56800 |
|
}, |
|
{ |
|
"epoch": 66.94, |
|
"learning_rate": 5.2e-07, |
|
"loss": 0.5681, |
|
"step": 56900 |
|
}, |
|
{ |
|
"epoch": 67.06, |
|
"learning_rate": 5.033333333333334e-07, |
|
"loss": 0.5607, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 67.18, |
|
"learning_rate": 4.866666666666666e-07, |
|
"loss": 0.5514, |
|
"step": 57100 |
|
}, |
|
{ |
|
"epoch": 67.29, |
|
"learning_rate": 4.7000000000000005e-07, |
|
"loss": 0.5569, |
|
"step": 57200 |
|
}, |
|
{ |
|
"epoch": 67.41, |
|
"learning_rate": 4.533333333333334e-07, |
|
"loss": 0.5119, |
|
"step": 57300 |
|
}, |
|
{ |
|
"epoch": 67.53, |
|
"learning_rate": 4.366666666666667e-07, |
|
"loss": 0.5858, |
|
"step": 57400 |
|
}, |
|
{ |
|
"epoch": 67.65, |
|
"learning_rate": 4.2000000000000006e-07, |
|
"loss": 0.5448, |
|
"step": 57500 |
|
}, |
|
{ |
|
"epoch": 67.76, |
|
"learning_rate": 4.0333333333333337e-07, |
|
"loss": 0.5451, |
|
"step": 57600 |
|
}, |
|
{ |
|
"epoch": 67.88, |
|
"learning_rate": 3.8666666666666674e-07, |
|
"loss": 0.5356, |
|
"step": 57700 |
|
}, |
|
{ |
|
"epoch": 68.0, |
|
"learning_rate": 3.7e-07, |
|
"loss": 0.5526, |
|
"step": 57800 |
|
}, |
|
{ |
|
"epoch": 68.12, |
|
"learning_rate": 3.533333333333334e-07, |
|
"loss": 0.5392, |
|
"step": 57900 |
|
}, |
|
{ |
|
"epoch": 68.24, |
|
"learning_rate": 3.366666666666667e-07, |
|
"loss": 0.5402, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 68.35, |
|
"learning_rate": 3.2e-07, |
|
"loss": 0.5597, |
|
"step": 58100 |
|
}, |
|
{ |
|
"epoch": 68.47, |
|
"learning_rate": 3.033333333333334e-07, |
|
"loss": 0.5426, |
|
"step": 58200 |
|
}, |
|
{ |
|
"epoch": 68.59, |
|
"learning_rate": 2.866666666666667e-07, |
|
"loss": 0.5742, |
|
"step": 58300 |
|
}, |
|
{ |
|
"epoch": 68.71, |
|
"learning_rate": 2.701666666666667e-07, |
|
"loss": 0.5628, |
|
"step": 58400 |
|
}, |
|
{ |
|
"epoch": 68.82, |
|
"learning_rate": 2.5350000000000004e-07, |
|
"loss": 0.5382, |
|
"step": 58500 |
|
}, |
|
{ |
|
"epoch": 68.94, |
|
"learning_rate": 2.3683333333333336e-07, |
|
"loss": 0.5231, |
|
"step": 58600 |
|
}, |
|
{ |
|
"epoch": 69.06, |
|
"learning_rate": 2.201666666666667e-07, |
|
"loss": 0.546, |
|
"step": 58700 |
|
}, |
|
{ |
|
"epoch": 69.18, |
|
"learning_rate": 2.0350000000000002e-07, |
|
"loss": 0.5379, |
|
"step": 58800 |
|
}, |
|
{ |
|
"epoch": 69.29, |
|
"learning_rate": 1.8683333333333336e-07, |
|
"loss": 0.5705, |
|
"step": 58900 |
|
}, |
|
{ |
|
"epoch": 69.41, |
|
"learning_rate": 1.7016666666666668e-07, |
|
"loss": 0.5235, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 69.53, |
|
"learning_rate": 1.5350000000000002e-07, |
|
"loss": 0.5527, |
|
"step": 59100 |
|
}, |
|
{ |
|
"epoch": 69.65, |
|
"learning_rate": 1.3683333333333336e-07, |
|
"loss": 0.5316, |
|
"step": 59200 |
|
}, |
|
{ |
|
"epoch": 69.76, |
|
"learning_rate": 1.2016666666666668e-07, |
|
"loss": 0.5711, |
|
"step": 59300 |
|
}, |
|
{ |
|
"epoch": 69.88, |
|
"learning_rate": 1.0350000000000001e-07, |
|
"loss": 0.5478, |
|
"step": 59400 |
|
}, |
|
{ |
|
"epoch": 70.0, |
|
"learning_rate": 8.7e-08, |
|
"loss": 0.5449, |
|
"step": 59500 |
|
}, |
|
{ |
|
"epoch": 70.12, |
|
"learning_rate": 7.033333333333334e-08, |
|
"loss": 0.5585, |
|
"step": 59600 |
|
}, |
|
{ |
|
"epoch": 70.24, |
|
"learning_rate": 5.3666666666666664e-08, |
|
"loss": 0.5654, |
|
"step": 59700 |
|
}, |
|
{ |
|
"epoch": 70.35, |
|
"learning_rate": 3.700000000000001e-08, |
|
"loss": 0.5099, |
|
"step": 59800 |
|
}, |
|
{ |
|
"epoch": 70.47, |
|
"learning_rate": 2.0333333333333333e-08, |
|
"loss": 0.5503, |
|
"step": 59900 |
|
}, |
|
{ |
|
"epoch": 70.59, |
|
"learning_rate": 3.666666666666667e-09, |
|
"loss": 0.5519, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 70.59, |
|
"eval_cer": 0.09830981547526749, |
|
"eval_loss": 0.4715472459793091, |
|
"eval_runtime": 7.8706, |
|
"eval_samples_per_second": 38.117, |
|
"eval_steps_per_second": 19.058, |
|
"eval_wer": 0.32863247863247863, |
|
"step": 60000 |
|
} |
|
], |
|
"max_steps": 60000, |
|
"num_train_epochs": 71, |
|
"total_flos": 5.154044369018537e+19, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|