File size: 12,905 Bytes
c221eeb
cf23252
 
 
 
 
 
 
 
 
c221eeb
 
cf23252
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
---
license: mit
base_model: facebook/w2v-bert-2.0
tags:
- generated_from_trainer
metrics:
- wer
model-index:
- name: w2v-bert-2.0-hindi_v1
  results: []
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# w2v-bert-2.0-hindi_v1

This model is a fine-tuned version of [facebook/w2v-bert-2.0](https://huggingface.co/facebook/w2v-bert-2.0) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.0787
- Wer: 0.0505

## Model description

More information needed

## Intended uses & limitations

More information needed

## Training and evaluation data

More information needed

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 3.5356e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 4
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 2
- mixed_precision_training: Native AMP

### Training results

| Training Loss | Epoch  | Step  | Validation Loss | Wer    |
|:-------------:|:------:|:-----:|:---------------:|:------:|
| 4.508         | 0.0108 | 300   | 3.5169          | 1.0    |
| 2.447         | 0.0216 | 600   | 1.1256          | 0.7027 |
| 1.2978        | 0.0324 | 900   | 0.7873          | 0.4987 |
| 1.034         | 0.0432 | 1200  | 0.6345          | 0.4258 |
| 0.9139        | 0.0540 | 1500  | 0.5973          | 0.3962 |
| 0.8422        | 0.0648 | 1800  | 0.5562          | 0.3586 |
| 0.7939        | 0.0755 | 2100  | 0.4826          | 0.3295 |
| 0.7194        | 0.0863 | 2400  | 0.4829          | 0.3266 |
| 0.737         | 0.0971 | 2700  | 0.4913          | 0.3557 |
| 0.6676        | 0.1079 | 3000  | 0.4541          | 0.3187 |
| 0.6265        | 0.1187 | 3300  | 0.4660          | 0.3088 |
| 0.6296        | 0.1295 | 3600  | 0.4080          | 0.2976 |
| 0.5943        | 0.1403 | 3900  | 0.4042          | 0.2799 |
| 0.6052        | 0.1511 | 4200  | 0.4212          | 0.2945 |
| 0.554         | 0.1619 | 4500  | 0.3867          | 0.2707 |
| 0.5613        | 0.1727 | 4800  | 0.3947          | 0.2881 |
| 0.5254        | 0.1835 | 5100  | 0.3586          | 0.2653 |
| 0.5288        | 0.1943 | 5400  | 0.3691          | 0.2801 |
| 0.5152        | 0.2051 | 5700  | 0.3619          | 0.2555 |
| 0.5361        | 0.2158 | 6000  | 0.3288          | 0.2401 |
| 0.5086        | 0.2266 | 6300  | 0.3216          | 0.2415 |
| 0.4799        | 0.2374 | 6600  | 0.3366          | 0.2467 |
| 0.4876        | 0.2482 | 6900  | 0.3282          | 0.2460 |
| 0.5001        | 0.2590 | 7200  | 0.3300          | 0.2499 |
| 0.4737        | 0.2698 | 7500  | 0.3494          | 0.2385 |
| 0.4768        | 0.2806 | 7800  | 0.3058          | 0.2368 |
| 0.435         | 0.2914 | 8100  | 0.3623          | 0.2561 |
| 0.4366        | 0.3022 | 8400  | 0.3111          | 0.2359 |
| 0.4155        | 0.3130 | 8700  | 0.2987          | 0.2348 |
| 0.4104        | 0.3238 | 9000  | 0.2932          | 0.2312 |
| 0.406         | 0.3346 | 9300  | 0.3100          | 0.2173 |
| 0.397         | 0.3454 | 9600  | 0.2972          | 0.2204 |
| 0.4224        | 0.3561 | 9900  | 0.3044          | 0.2212 |
| 0.3851        | 0.3669 | 10200 | 0.2941          | 0.2165 |
| 0.3684        | 0.3777 | 10500 | 0.2742          | 0.2084 |
| 0.3884        | 0.3885 | 10800 | 0.2633          | 0.2122 |
| 0.3681        | 0.3993 | 11100 | 0.2799          | 0.2089 |
| 0.3468        | 0.4101 | 11400 | 0.2873          | 0.2080 |
| 0.3753        | 0.4209 | 11700 | 0.2533          | 0.1978 |
| 0.3837        | 0.4317 | 12000 | 0.2628          | 0.2054 |
| 0.3442        | 0.4425 | 12300 | 0.2609          | 0.1994 |
| 0.3338        | 0.4533 | 12600 | 0.2512          | 0.2001 |
| 0.3593        | 0.4641 | 12900 | 0.2472          | 0.1954 |
| 0.3311        | 0.4749 | 13200 | 0.2705          | 0.1929 |
| 0.329         | 0.4857 | 13500 | 0.2545          | 0.1997 |
| 0.3122        | 0.4964 | 13800 | 0.2489          | 0.1931 |
| 0.3368        | 0.5072 | 14100 | 0.2568          | 0.1924 |
| 0.3364        | 0.5180 | 14400 | 0.2447          | 0.1949 |
| 0.367         | 0.5288 | 14700 | 0.2325          | 0.1849 |
| 0.3253        | 0.5396 | 15000 | 0.2448          | 0.1839 |
| 0.3166        | 0.5504 | 15300 | 0.2421          | 0.1902 |
| 0.3232        | 0.5612 | 15600 | 0.2319          | 0.1833 |
| 0.2959        | 0.5720 | 15900 | 0.2333          | 0.1757 |
| 0.315         | 0.5828 | 16200 | 0.2372          | 0.1809 |
| 0.2854        | 0.5936 | 16500 | 0.2400          | 0.1810 |
| 0.3361        | 0.6044 | 16800 | 0.2573          | 0.1780 |
| 0.3027        | 0.6152 | 17100 | 0.2308          | 0.1744 |
| 0.3015        | 0.6259 | 17400 | 0.2405          | 0.1736 |
| 0.3035        | 0.6367 | 17700 | 0.2322          | 0.1822 |
| 0.2882        | 0.6475 | 18000 | 0.2297          | 0.1762 |
| 0.267         | 0.6583 | 18300 | 0.2155          | 0.1652 |
| 0.2819        | 0.6691 | 18600 | 0.2156          | 0.1612 |
| 0.2898        | 0.6799 | 18900 | 0.2116          | 0.1585 |
| 0.2857        | 0.6907 | 19200 | 0.1987          | 0.1531 |
| 0.2826        | 0.7015 | 19500 | 0.1909          | 0.1556 |
| 0.2774        | 0.7123 | 19800 | 0.1858          | 0.1499 |
| 0.293         | 0.7231 | 20100 | 0.1940          | 0.1503 |
| 0.2771        | 0.7339 | 20400 | 0.1994          | 0.1521 |
| 0.2664        | 0.7447 | 20700 | 0.1948          | 0.1519 |
| 0.261         | 0.7555 | 21000 | 0.1875          | 0.1442 |
| 0.2467        | 0.7662 | 21300 | 0.1887          | 0.1439 |
| 0.2435        | 0.7770 | 21600 | 0.2039          | 0.1452 |
| 0.2459        | 0.7878 | 21900 | 0.1825          | 0.1398 |
| 0.2367        | 0.7986 | 22200 | 0.2007          | 0.1439 |
| 0.2383        | 0.8094 | 22500 | 0.1901          | 0.1419 |
| 0.2524        | 0.8202 | 22800 | 0.1727          | 0.1409 |
| 0.248         | 0.8310 | 23100 | 0.1926          | 0.1405 |
| 0.265         | 0.8418 | 23400 | 0.1795          | 0.1353 |
| 0.2469        | 0.8526 | 23700 | 0.1712          | 0.1301 |
| 0.2212        | 0.8634 | 24000 | 0.1841          | 0.1389 |
| 0.2591        | 0.8742 | 24300 | 0.1783          | 0.1281 |
| 0.2311        | 0.8850 | 24600 | 0.1843          | 0.1342 |
| 0.2297        | 0.8958 | 24900 | 0.1652          | 0.1326 |
| 0.2203        | 0.9065 | 25200 | 0.1608          | 0.1263 |
| 0.222         | 0.9173 | 25500 | 0.1788          | 0.1267 |
| 0.2232        | 0.9281 | 25800 | 0.1614          | 0.1226 |
| 0.2165        | 0.9389 | 26100 | 0.1746          | 0.1231 |
| 0.2111        | 0.9497 | 26400 | 0.1793          | 0.1274 |
| 0.2344        | 0.9605 | 26700 | 0.1645          | 0.1209 |
| 0.2075        | 0.9713 | 27000 | 0.1609          | 0.1243 |
| 0.212         | 0.9821 | 27300 | 0.1750          | 0.1294 |
| 0.1863        | 0.9929 | 27600 | 0.1595          | 0.1179 |
| 0.1876        | 1.0037 | 27900 | 0.1535          | 0.1150 |
| 0.1708        | 1.0145 | 28200 | 0.1599          | 0.1159 |
| 0.1624        | 1.0253 | 28500 | 0.1587          | 0.1172 |
| 0.1837        | 1.0361 | 28800 | 0.1561          | 0.1160 |
| 0.1894        | 1.0468 | 29100 | 0.1593          | 0.1079 |
| 0.1656        | 1.0576 | 29400 | 0.1549          | 0.1115 |
| 0.1809        | 1.0684 | 29700 | 0.1333          | 0.1093 |
| 0.1814        | 1.0792 | 30000 | 0.1458          | 0.1058 |
| 0.159         | 1.0900 | 30300 | 0.1460          | 0.1091 |
| 0.1707        | 1.1008 | 30600 | 0.1430          | 0.1077 |
| 0.1728        | 1.1116 | 30900 | 0.1564          | 0.1026 |
| 0.1583        | 1.1224 | 31200 | 0.1408          | 0.1021 |
| 0.1751        | 1.1332 | 31500 | 0.1464          | 0.1048 |
| 0.1686        | 1.1440 | 31800 | 0.1371          | 0.0999 |
| 0.1495        | 1.1548 | 32100 | 0.1448          | 0.0996 |
| 0.1647        | 1.1656 | 32400 | 0.1452          | 0.1004 |
| 0.151         | 1.1764 | 32700 | 0.1376          | 0.0993 |
| 0.1507        | 1.1871 | 33000 | 0.1308          | 0.0947 |
| 0.154         | 1.1979 | 33300 | 0.1315          | 0.0975 |
| 0.1452        | 1.2087 | 33600 | 0.1281          | 0.0951 |
| 0.1381        | 1.2195 | 33900 | 0.1329          | 0.0936 |
| 0.146         | 1.2303 | 34200 | 0.1304          | 0.0905 |
| 0.1697        | 1.2411 | 34500 | 0.1265          | 0.0930 |
| 0.1479        | 1.2519 | 34800 | 0.1245          | 0.0896 |
| 0.1583        | 1.2627 | 35100 | 0.1292          | 0.0888 |
| 0.1246        | 1.2735 | 35400 | 0.1330          | 0.0939 |
| 0.1537        | 1.2843 | 35700 | 0.1279          | 0.0865 |
| 0.142         | 1.2951 | 36000 | 0.1221          | 0.0877 |
| 0.1312        | 1.3059 | 36300 | 0.1222          | 0.0876 |
| 0.1364        | 1.3167 | 36600 | 0.1235          | 0.0881 |
| 0.1527        | 1.3274 | 36900 | 0.1241          | 0.0834 |
| 0.1362        | 1.3382 | 37200 | 0.1177          | 0.0810 |
| 0.1546        | 1.3490 | 37500 | 0.1212          | 0.0801 |
| 0.1341        | 1.3598 | 37800 | 0.1231          | 0.0819 |
| 0.1371        | 1.3706 | 38100 | 0.1196          | 0.0865 |
| 0.1425        | 1.3814 | 38400 | 0.1126          | 0.0805 |
| 0.16          | 1.3922 | 38700 | 0.1185          | 0.0783 |
| 0.1316        | 1.4030 | 39000 | 0.1204          | 0.0794 |
| 0.1361        | 1.4138 | 39300 | 0.1091          | 0.0777 |
| 0.1623        | 1.4246 | 39600 | 0.1090          | 0.0776 |
| 0.1246        | 1.4354 | 39900 | 0.1115          | 0.0779 |
| 0.1289        | 1.4462 | 40200 | 0.1081          | 0.0748 |
| 0.1124        | 1.4570 | 40500 | 0.1083          | 0.0745 |
| 0.1224        | 1.4677 | 40800 | 0.1072          | 0.0755 |
| 0.1218        | 1.4785 | 41100 | 0.1132          | 0.0739 |
| 0.121         | 1.4893 | 41400 | 0.1085          | 0.0733 |
| 0.1058        | 1.5001 | 41700 | 0.1098          | 0.0720 |
| 0.1304        | 1.5109 | 42000 | 0.1044          | 0.0694 |
| 0.1309        | 1.5217 | 42300 | 0.1045          | 0.0694 |
| 0.1418        | 1.5325 | 42600 | 0.0997          | 0.0675 |
| 0.1213        | 1.5433 | 42900 | 0.1039          | 0.0698 |
| 0.1253        | 1.5541 | 43200 | 0.1024          | 0.0695 |
| 0.1119        | 1.5649 | 43500 | 0.1043          | 0.0706 |
| 0.1132        | 1.5757 | 43800 | 0.1043          | 0.0665 |
| 0.1161        | 1.5865 | 44100 | 0.1041          | 0.0644 |
| 0.095         | 1.5973 | 44400 | 0.1014          | 0.0656 |
| 0.0958        | 1.6080 | 44700 | 0.0972          | 0.0640 |
| 0.1035        | 1.6188 | 45000 | 0.1003          | 0.0652 |
| 0.1054        | 1.6296 | 45300 | 0.1043          | 0.0666 |
| 0.1172        | 1.6404 | 45600 | 0.1002          | 0.0643 |
| 0.1078        | 1.6512 | 45900 | 0.0996          | 0.0641 |
| 0.102         | 1.6620 | 46200 | 0.0973          | 0.0619 |
| 0.108         | 1.6728 | 46500 | 0.0966          | 0.0609 |
| 0.1058        | 1.6836 | 46800 | 0.0938          | 0.0613 |
| 0.1134        | 1.6944 | 47100 | 0.0905          | 0.0606 |
| 0.1102        | 1.7052 | 47400 | 0.0915          | 0.0598 |
| 0.1342        | 1.7160 | 47700 | 0.0903          | 0.0587 |
| 0.1039        | 1.7268 | 48000 | 0.0905          | 0.0590 |
| 0.0993        | 1.7376 | 48300 | 0.0924          | 0.0596 |
| 0.0965        | 1.7483 | 48600 | 0.0898          | 0.0580 |
| 0.0911        | 1.7591 | 48900 | 0.0899          | 0.0577 |
| 0.1023        | 1.7699 | 49200 | 0.0897          | 0.0577 |
| 0.094         | 1.7807 | 49500 | 0.0875          | 0.0558 |
| 0.0962        | 1.7915 | 49800 | 0.0880          | 0.0558 |
| 0.0922        | 1.8023 | 50100 | 0.0858          | 0.0555 |
| 0.0945        | 1.8131 | 50400 | 0.0866          | 0.0548 |
| 0.0897        | 1.8239 | 50700 | 0.0840          | 0.0542 |
| 0.0921        | 1.8347 | 51000 | 0.0876          | 0.0549 |
| 0.0917        | 1.8455 | 51300 | 0.0853          | 0.0540 |
| 0.1093        | 1.8563 | 51600 | 0.0844          | 0.0540 |
| 0.0986        | 1.8671 | 51900 | 0.0831          | 0.0536 |
| 0.0904        | 1.8778 | 52200 | 0.0831          | 0.0530 |
| 0.096         | 1.8886 | 52500 | 0.0825          | 0.0531 |
| 0.0815        | 1.8994 | 52800 | 0.0837          | 0.0533 |
| 0.0892        | 1.9102 | 53100 | 0.0840          | 0.0533 |
| 0.0789        | 1.9210 | 53400 | 0.0826          | 0.0524 |
| 0.0914        | 1.9318 | 53700 | 0.0813          | 0.0520 |
| 0.1029        | 1.9426 | 54000 | 0.0803          | 0.0513 |
| 0.0856        | 1.9534 | 54300 | 0.0798          | 0.0511 |
| 0.0869        | 1.9642 | 54600 | 0.0794          | 0.0507 |
| 0.101         | 1.9750 | 54900 | 0.0785          | 0.0508 |
| 0.0917        | 1.9858 | 55200 | 0.0787          | 0.0507 |
| 0.0875        | 1.9966 | 55500 | 0.0787          | 0.0505 |


### Framework versions

- Transformers 4.41.1
- Pytorch 2.1.2+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1