nickprock commited on
Commit
1304a7f
·
verified ·
1 Parent(s): a8575ba

Train completed

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,559 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:100000
8
+ - loss:MatryoshkaLoss
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: DeepMount00/ModernBERT-base-ita
11
+ widget:
12
+ - source_sentence: effetti dell'ipotiroidismo sul corpo
13
+ sentences:
14
+ - Con l'ipotiroidismo, invece, la temperatura corporea tende a diminuire a causa
15
+ di una carenza di ormone tiroideo. Un piccolo aumento o diminuzione dei livelli
16
+ della tiroide può modificare la temperatura corporea abbastanza da influenzare
17
+ significativamente i livelli di proteine ​​nel sangue. Come l'ipotiroidismo influisce
18
+ sulla temperatura interna. I sintomi dell'ipotiroidismo includono costipazione,
19
+ affaticamento, dolori articolari o muscolari e persino depressione.
20
+ - Organum Harmony una prima forma di polifonia Anonimo IV Ha scritto la vecchia
21
+ teoria musicale dal MUSC 118 alla Eastern Michigan University
22
+ - Se stai cercando informazioni su quando la tiroide produce troppo ormone tiroideo,
23
+ vedi l'argomento Ipertiroidismo. L'ipotiroidismo significa che la tiroide non
24
+ produce abbastanza ormone tiroideo. La tiroide è una ghiandola a forma di farfalla
25
+ nella parte anteriore del collo. Produce ormoni che controllano il modo in cui
26
+ il tuo corpo usa l'energia. Avere un basso livello di ormone tiroideo colpisce
27
+ tutto il tuo corpo. Può farti sentire stanco e debole. Se l'ipotiroidismo non
28
+ viene trattato, può aumentare i livelli di colesterolo.
29
+ - source_sentence: che ore sono a gilbert az
30
+ sentences:
31
+ - Principali città vicino a Phoenix, AZ. Questa è una lista delle grandi città più
32
+ vicine a Phoenix, AZ. Una grande città di solito ha una popolazione di almeno
33
+ 200.000 abitanti e spesso puoi volare in un grande aeroporto. Se devi prenotare
34
+ un volo, cerca l'aeroporto più vicino a Phoenix, AZ. 19 miglia a Glendale, AZ.
35
+ 2 11 miglia a Scottsdale, AZ. 3 15 miglia a Mesa, AZ.
36
+ - Gli appaltatori indipendenti sono coperti come dipendenti di servizio sotto la
37
+ SCA. È responsabilità dell'azienda garantire che gli appaltatori indipendenti
38
+ coperti da SCA ricevano i salari e i benefici accessori appropriati. In caso contrario,
39
+ la società può essere ritenuta responsabile per eventuali pagamenti insufficienti.
40
+ - 'Ora locale attuale: Gilbert, Arizona si trova nel fuso orario delle montagne
41
+ Nota: la nazione Navajo nell''Arizona nord-orientale osserva l''ora legale. Gilbert,
42
+ Arizona non utilizza l''ora legale. L''ora corrente a Gilbert, Arizona è: lunedì
43
+ 29/01/2018 19:22 MST Gilbert, Arizona si trova nel fuso orario di montagna e NON
44
+ osserva l''ora legale.'
45
+ - source_sentence: cos'è un portale di progetto?
46
+ sentences:
47
+ - La metodologia dei cancelli è un processo di definizione progressiva del progetto
48
+ basato su una valutazione pianificata e standardizzata al termine di ogni fase.
49
+ Un cancello o un casello è un punto di controllo standardizzato in cui la fase
50
+ del progetto viene rivista e/o verificata e approvata (o meno) per continuare
51
+ con la fase successiva.
52
+ - Lo sviluppo del curriculum è un processo continuo e le modifiche necessarie sono
53
+ parte integrante del processo, In. al fine di rendere più reattivo alle mutevoli
54
+ esigenze e per garantire la pertinenza. È senza dubbio la realtà. che l'efficace
55
+ processo di sviluppo del curriculum può migliorare l'apprendimento dei partecipanti.
56
+ - Quando usi la teoria del controllo del cancello per alleviare il disagio del travaglio,
57
+ tieni a mente alcune cose. Primo, i nervi di grande diametro si abituano più velocemente
58
+ dei nervi di piccolo diametro. Ciò significa che farsi massaggiare la schiena
59
+ può funzionare come un incantesimo per una ventina di minuti e poi interrompersi
60
+ improvvisamente. Questo è solo il modo in cui il tuo corpo ti dice che è ora di
61
+ provare qualcos'altro. In secondo luogo, può essere utile utilizzare tecniche
62
+ di visualizzazione o punti focali mentre provi la teoria del cancello perché questo
63
+ ti focalizza e può aiutarti a distrarti dal disagio. Quali domande hai sulla teoria
64
+ del controllo dei cancelli? Hai applicato i concetti nel tuo lavoro?
65
+ - source_sentence: tipo di assicurazione di cui avrò bisogno per gli assistenti d'infanzia
66
+ sentences:
67
+ - QUIET è un esperimento di astronomia per studiare la polarizzazione della radiazione
68
+ cosmica di fondo a microonde. QUIET sta per Q/U Imaging Experiment. La Q/U nel
69
+ nome si riferisce alla capacità del telescopio di misurare simultaneamente i parametri
70
+ Q e U Stokes. QUIET si trova ad un'altitudine di 5.080 metri (16.700 piedi) presso
71
+ l'Osservatorio di Llano de Chajnantor nelle Ande cilene.
72
+ - Assicurazione sulla vita del credito = assicurazione a termine decrescente. La
73
+ durata del credito è simile a un tipo speciale di assicurazione sulla vita denominata
74
+ assicurazione a termine decrescente. • Viene emessa una polizza vita
75
+ di credito per un importo pari a quanto devi. Quando il saldo del prestito diminuisce,
76
+ diminuisce anche l'importo nominale della polizza sulla vita del credito.
77
+ - Childminders v7.0 Aprile 2012 2 Introduzione Gli assistenti all'infanzia sono
78
+ generalmente contrattati con i genitori per fornire servizi nei locali degli assistenti
79
+ all'infanzia, quindi normalmente non sono dipendenti dei genitori. La maggior
80
+ parte degli assistenti d'infanzia sono lavoratori autonomi e sono responsabili
81
+ delle proprie imposte sul reddito e dei contributi all'assicurazione nazionale.
82
+ Gli assistenti d'infanzia dovranno tenere registri delle entrate e delle spese
83
+ aziendali per calcolare i loro profitti e questo opuscolo fornisce informazioni
84
+ su come farlo. è un assistente all'infanzia registrato con sede a casa dei genitori
85
+ dei bambini. La maggior parte degli assistenti d'infanzia a domicilio sono assunti
86
+ dai genitori o dai genitori dei bambini. Ãâ„ locali, quindi normalmente non sono
87
+ dipendenti dei genitori. La maggior parte degli assistenti d'infanzia sono lavoratori
88
+ autonomi e sono responsabili della propria imposta sul reddito e dei contributi
89
+ all'assicurazione nazionale.
90
+ - source_sentence: chi canta la canzone che ti ama bella piccola
91
+ sentences:
92
+ - Who Loves You (canzone) Who Loves You è la canzone del titolo di un album del
93
+ 1975 dei The Four Seasons. È stato composto da Bob Gaudio e Judy Parker e prodotto
94
+ da Gaudio. Ha raggiunto il numero 3 della Billboard Hot 100 nel novembre 1975.
95
+ Contenuto.
96
+ - Quanto dovrebbe essere ampia un'isola cucina? Molte isole sono di circa 2 o 3
97
+ piedi, ma se hai bisogno di più spazio sul bancone, spazio per sedersi, ecc.,
98
+ Puoi andare un po' più grande. A volte sono necessari circa 7 piedi se si desidera
99
+ un piano cottura o un lavandino nell'isola. Si raccomanda che la tua isola sia
100
+ profonda almeno 2 piedi. Lasciare abbastanza spazio su tutti i lati... 3 piedi
101
+ di superficie alle estremità dell'isola vanno bene. Ricordate che volete essere
102
+ in grado di muovervi facilmente in cucina.
103
+ - Io, ti amo come una (canzone d'amore piccola) canzone d'amore, piccola. Io, ti
104
+ amo come una (canzone d'amore piccola) canzone d'amore, piccola. Io, ti amo (ti
105
+ amo, ti amo) come una canzone d'amore, piccola. E continuo a suonare re-peat-peat-peat-peat-peat-peat
106
+ (come una canzone d'amore). [Ponte].
107
+ pipeline_tag: sentence-similarity
108
+ library_name: sentence-transformers
109
+ metrics:
110
+ - cosine_accuracy
111
+ model-index:
112
+ - name: SentenceTransformer based on DeepMount00/ModernBERT-base-ita
113
+ results:
114
+ - task:
115
+ type: triplet
116
+ name: Triplet
117
+ dataset:
118
+ name: mmarco dev
119
+ type: mmarco_dev
120
+ metrics:
121
+ - type: cosine_accuracy
122
+ value: 0.9154999852180481
123
+ name: Cosine Accuracy
124
+ - task:
125
+ type: triplet
126
+ name: Triplet
127
+ dataset:
128
+ name: mmarco test
129
+ type: mmarco_test
130
+ metrics:
131
+ - type: cosine_accuracy
132
+ value: 0.9129999876022339
133
+ name: Cosine Accuracy
134
+ ---
135
+
136
+ # SentenceTransformer based on DeepMount00/ModernBERT-base-ita
137
+
138
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [DeepMount00/ModernBERT-base-ita](https://huggingface.co/DeepMount00/ModernBERT-base-ita) on the mmarco dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
139
+
140
+ ## Model Details
141
+
142
+ ### Model Description
143
+ - **Model Type:** Sentence Transformer
144
+ - **Base model:** [DeepMount00/ModernBERT-base-ita](https://huggingface.co/DeepMount00/ModernBERT-base-ita) <!-- at revision 488fcf8de13c3a1f6359cf84fc6a0352396accad -->
145
+ - **Maximum Sequence Length:** 8192 tokens
146
+ - **Output Dimensionality:** 768 dimensions
147
+ - **Similarity Function:** Cosine Similarity
148
+ - **Training Dataset:**
149
+ - mmarco
150
+ <!-- - **Language:** Unknown -->
151
+ <!-- - **License:** Unknown -->
152
+
153
+ ### Model Sources
154
+
155
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
156
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
157
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
158
+
159
+ ### Full Model Architecture
160
+
161
+ ```
162
+ SentenceTransformer(
163
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel
164
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
165
+ )
166
+ ```
167
+
168
+ ## Usage
169
+
170
+ ### Direct Usage (Sentence Transformers)
171
+
172
+ First install the Sentence Transformers library:
173
+
174
+ ```bash
175
+ pip install -U sentence-transformers
176
+ ```
177
+
178
+ Then you can load this model and run inference.
179
+ ```python
180
+ from sentence_transformers import SentenceTransformer
181
+
182
+ # Download from the 🤗 Hub
183
+ model = SentenceTransformer("ModernBERT-base-ita-embed-mnrl")
184
+ # Run inference
185
+ sentences = [
186
+ 'chi canta la canzone che ti ama bella piccola',
187
+ 'Who Loves You (canzone) Who Loves You è la canzone del titolo di un album del 1975 dei The Four Seasons. È stato composto da Bob Gaudio e Judy Parker e prodotto da Gaudio. Ha raggiunto il numero 3 della Billboard Hot 100 nel novembre 1975. Contenuto.',
188
+ "Io, ti amo come una (canzone d'amore piccola) canzone d'amore, piccola. Io, ti amo come una (canzone d'amore piccola) canzone d'amore, piccola. Io, ti amo (ti amo, ti amo) come una canzone d'amore, piccola. E continuo a suonare re-peat-peat-peat-peat-peat-peat (come una canzone d'amore). [Ponte].",
189
+ ]
190
+ embeddings = model.encode(sentences)
191
+ print(embeddings.shape)
192
+ # [3, 768]
193
+
194
+ # Get the similarity scores for the embeddings
195
+ similarities = model.similarity(embeddings, embeddings)
196
+ print(similarities.shape)
197
+ # [3, 3]
198
+ ```
199
+
200
+ <!--
201
+ ### Direct Usage (Transformers)
202
+
203
+ <details><summary>Click to see the direct usage in Transformers</summary>
204
+
205
+ </details>
206
+ -->
207
+
208
+ <!--
209
+ ### Downstream Usage (Sentence Transformers)
210
+
211
+ You can finetune this model on your own dataset.
212
+
213
+ <details><summary>Click to expand</summary>
214
+
215
+ </details>
216
+ -->
217
+
218
+ <!--
219
+ ### Out-of-Scope Use
220
+
221
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
222
+ -->
223
+
224
+ ## Evaluation
225
+
226
+ ### Metrics
227
+
228
+ #### Triplet
229
+
230
+ * Datasets: `mmarco_dev` and `mmarco_test`
231
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
232
+
233
+ | Metric | mmarco_dev | mmarco_test |
234
+ |:--------------------|:-----------|:------------|
235
+ | **cosine_accuracy** | **0.9155** | **0.913** |
236
+
237
+ <!--
238
+ ## Bias, Risks and Limitations
239
+
240
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
241
+ -->
242
+
243
+ <!--
244
+ ### Recommendations
245
+
246
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
247
+ -->
248
+
249
+ ## Training Details
250
+
251
+ ### Training Dataset
252
+
253
+ #### mmarco
254
+
255
+ * Dataset: mmarco
256
+ * Size: 100,000 training samples
257
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
258
+ * Approximate statistics based on the first 1000 samples:
259
+ | | query | positive | negative |
260
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
261
+ | type | string | string | string |
262
+ | details | <ul><li>min: 5 tokens</li><li>mean: 14.64 tokens</li><li>max: 54 tokens</li></ul> | <ul><li>min: 32 tokens</li><li>mean: 131.02 tokens</li><li>max: 401 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 121.47 tokens</li><li>max: 395 tokens</li></ul> |
263
+ * Samples:
264
+ | query | positive | negative |
265
+ |:-------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
266
+ | <code>cos'è la nuvola elettrica?</code> | <code>Dettagli della Compagnia. Electric Cloud è il leader nell'automazione dei rilasci DevOps. Aiutano le organizzazioni che sviluppano applicazioni Web/IT aziendali, mobili e sistemi embedded a fornire software migliore più velocemente automatizzando e accelerando i processi di creazione, implementazione e rilascio su larga scala.</code> | <code>Registrati per abilitare Cloud Sync e ottieni 200 milioni di spazio cloud GRATIS. Accedi a tutti i documenti in qualsiasi momento su qualsiasi dispositivo solo con l'account connesso. L'offerta speciale per studenti e insegnanti consente agli utenti educativi di ottenere la versione completa e 200M di spazio cloud extra.</code> |
267
+ | <code>quali colori si mescolano per creare i colori primari</code> | <code>Attraverso la previsione e la sperimentazione tuo figlio mescola i colori primari (rosso, giallo e blu) per creare colori secondari (arancione, viola e verde). 1 Vernice rossa, gialla e blu (colori primari). La vernice a tempera è una buona opzione perché è lavabile ed è disponibile in colori vivaci. Sei piccoli contenitori per la vernice.</code> | <code>I cubi di Rubik sono stati realizzati praticamente di ogni colore immaginabile. Ho un cubo che è bianco, nero, grigio scuro, argento, grigio chiaro e grigio. Ho visto cubi in 6 colori pastello, in 6 colori primari, ecc. I colori più comuni che ho visto sono bianco, giallo, rosso, arancione, verde e blu, ma li ho visti in molte diverse disposizioni di quei colori.</code> |
268
+ | <code>cos'è l'editing genetico di crispr/cas9?</code> | <code>CRISPR/Cas9, una tecnica di editing genetico in grado di mirare e modificare il DNA con un'accuratezza rivoluzionaria, è sia il nuovo tesoro che il più nuovo cattivo della ricerca genetica. Inventato nel 2012 dagli scienziati dell'Università della California, Berkeley, CRISPR/Cas9 ha ricevuto molta attenzione quest'anno. Se gli scienziati sono in grado di definire con precisione l'uso di CRISPR/Cas9 nelle cellule germinali umane, non c'è dubbio che potrebbe conferire grandi benefici. Vale a dire, la tecnologia potrebbe sradicare del tutto malattie ereditarie come la fibrosi cistica, l'anemia falciforme e la malattia di Huntington da una linea familiare.</code> | <code>Un gene può esistere in molte forme diverse, chiamate alleli. Ad esempio, diciamo che c'è un gene che determina il colore dei tuoi capelli. Quel gene può avere molte forme, o alleli: capelli neri, capelli castani, capelli ramati, capelli rossi, capelli biondi, ecc. Erediti un allele per ogni gene da tua madre e uno da tuo padre. Ciascuno dei due alleli che erediti per un gene può essere forte (dominante) o debole (recessivo).</code> |
269
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
270
+ ```json
271
+ {
272
+ "loss": "MultipleNegativesRankingLoss",
273
+ "matryoshka_dims": [
274
+ 768,
275
+ 512,
276
+ 256,
277
+ 128,
278
+ 64
279
+ ],
280
+ "matryoshka_weights": [
281
+ 1,
282
+ 1,
283
+ 1,
284
+ 1,
285
+ 1
286
+ ],
287
+ "n_dims_per_step": -1
288
+ }
289
+ ```
290
+
291
+ ### Evaluation Dataset
292
+
293
+ #### mmarco
294
+
295
+ * Dataset: mmarco
296
+ * Size: 2,000 evaluation samples
297
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
298
+ * Approximate statistics based on the first 1000 samples:
299
+ | | query | positive | negative |
300
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
301
+ | type | string | string | string |
302
+ | details | <ul><li>min: 5 tokens</li><li>mean: 14.59 tokens</li><li>max: 37 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 130.71 tokens</li><li>max: 358 tokens</li></ul> | <ul><li>min: 28 tokens</li><li>mean: 125.86 tokens</li><li>max: 424 tokens</li></ul> |
303
+ * Samples:
304
+ | query | positive | negative |
305
+ |:---------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
306
+ | <code>dire la differenza corvi e corvi</code> | <code>Alcuni suggerimenti per identificare i corvi: 1 Code più corte e arrotondate e becchi più sottili rispetto ai corvi. 2 Ali più larghe, più corte e meno appuntite dei corvi. 3 corvi americani emettono un gracchiare dal suono chiaro che è più acuto del gracchiare più profondo di un corvo.</code> | <code>Cosa mangia i serpenti a sonagli? Risposta rapida. I serpenti a sonagli sono preda di uccelli rapaci, come gufi, aquile, falchi, corvi, corvi e roadrunner, oltre a volpi, coyote, gatti selvatici, tassi, maiali selvatici, ghiandaie, martin pescatori, tacchini, averle e altri serpenti. I serpenti a sonagli appena nati sono particolarmente suscettibili di essere cacciati.</code> |
307
+ | <code>dove si trova sturgis?</code> | <code>Sturgis Township si trova nella contea di St. Joseph, nel Michigan. Sturgis Township ha una popolazione di 2.261 secondo il censimento del 2010. La borgata ha una superficie totale di 18,0 miglia quadrate (46,6 km²), di cui 17,9 miglia quadrate (46,5 km²) di terra e 0,1 miglia quadrate (0,2 km²) (0,39%). ) è acqua.</code> | <code>I tarsali si trovano nella parte superiore dei piedi. Pensa a una gamba dritta come a una L, i tarsali si trovano dove la L si piega per formare un piede.</code> |
308
+ | <code>qual è la differenza tra citazione e riferimento?</code> | <code>Poiché citazione e riferimento sono due termini importanti utilizzati nella metodologia di ricerca, la differenza tra questi due termini deve essere compresa chiaramente. La citazione è un riferimento a una fonte pubblicata o inedita. È generalmente un'espressione alfanumerica abbreviata che si trova nelle pagine di una tesi o di una tesi. Una citazione è il modo in cui citi la fonte delle idee all'interno del corpo del documento di ricerca. Il riferimento è le fonti che hai usato per scrivere le fonti. Queste fonti possono includere fonti incluse e consultate.</code> | <code>1 Fare clic all'interno della citazione nel testo per selezionarla. Dovrebbe diventare grigio (a indicare che sono presenti i caratteri di formattazione di EndNote) 2 Fare clic su Modifica e gestisci citazioni. 3 Per la citazione appropriata, fare clic sul pulsante Modifica riferimento e scegliere Rimuovi citazione. Fare clic su OK.</code> |
309
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
310
+ ```json
311
+ {
312
+ "loss": "MultipleNegativesRankingLoss",
313
+ "matryoshka_dims": [
314
+ 768,
315
+ 512,
316
+ 256,
317
+ 128,
318
+ 64
319
+ ],
320
+ "matryoshka_weights": [
321
+ 1,
322
+ 1,
323
+ 1,
324
+ 1,
325
+ 1
326
+ ],
327
+ "n_dims_per_step": -1
328
+ }
329
+ ```
330
+
331
+ ### Training Hyperparameters
332
+ #### Non-Default Hyperparameters
333
+
334
+ - `eval_strategy`: steps
335
+ - `per_device_train_batch_size`: 16
336
+ - `per_device_eval_batch_size`: 16
337
+ - `learning_rate`: 2e-05
338
+ - `num_train_epochs`: 1
339
+ - `warmup_ratio`: 0.1
340
+ - `fp16`: True
341
+ - `load_best_model_at_end`: True
342
+ - `batch_sampler`: no_duplicates
343
+
344
+ #### All Hyperparameters
345
+ <details><summary>Click to expand</summary>
346
+
347
+ - `overwrite_output_dir`: False
348
+ - `do_predict`: False
349
+ - `eval_strategy`: steps
350
+ - `prediction_loss_only`: True
351
+ - `per_device_train_batch_size`: 16
352
+ - `per_device_eval_batch_size`: 16
353
+ - `per_gpu_train_batch_size`: None
354
+ - `per_gpu_eval_batch_size`: None
355
+ - `gradient_accumulation_steps`: 1
356
+ - `eval_accumulation_steps`: None
357
+ - `torch_empty_cache_steps`: None
358
+ - `learning_rate`: 2e-05
359
+ - `weight_decay`: 0.0
360
+ - `adam_beta1`: 0.9
361
+ - `adam_beta2`: 0.999
362
+ - `adam_epsilon`: 1e-08
363
+ - `max_grad_norm`: 1.0
364
+ - `num_train_epochs`: 1
365
+ - `max_steps`: -1
366
+ - `lr_scheduler_type`: linear
367
+ - `lr_scheduler_kwargs`: {}
368
+ - `warmup_ratio`: 0.1
369
+ - `warmup_steps`: 0
370
+ - `log_level`: passive
371
+ - `log_level_replica`: warning
372
+ - `log_on_each_node`: True
373
+ - `logging_nan_inf_filter`: True
374
+ - `save_safetensors`: True
375
+ - `save_on_each_node`: False
376
+ - `save_only_model`: False
377
+ - `restore_callback_states_from_checkpoint`: False
378
+ - `no_cuda`: False
379
+ - `use_cpu`: False
380
+ - `use_mps_device`: False
381
+ - `seed`: 42
382
+ - `data_seed`: None
383
+ - `jit_mode_eval`: False
384
+ - `use_ipex`: False
385
+ - `bf16`: False
386
+ - `fp16`: True
387
+ - `fp16_opt_level`: O1
388
+ - `half_precision_backend`: auto
389
+ - `bf16_full_eval`: False
390
+ - `fp16_full_eval`: False
391
+ - `tf32`: None
392
+ - `local_rank`: 0
393
+ - `ddp_backend`: None
394
+ - `tpu_num_cores`: None
395
+ - `tpu_metrics_debug`: False
396
+ - `debug`: []
397
+ - `dataloader_drop_last`: False
398
+ - `dataloader_num_workers`: 0
399
+ - `dataloader_prefetch_factor`: None
400
+ - `past_index`: -1
401
+ - `disable_tqdm`: False
402
+ - `remove_unused_columns`: True
403
+ - `label_names`: None
404
+ - `load_best_model_at_end`: True
405
+ - `ignore_data_skip`: False
406
+ - `fsdp`: []
407
+ - `fsdp_min_num_params`: 0
408
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
409
+ - `tp_size`: 0
410
+ - `fsdp_transformer_layer_cls_to_wrap`: None
411
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
412
+ - `deepspeed`: None
413
+ - `label_smoothing_factor`: 0.0
414
+ - `optim`: adamw_torch
415
+ - `optim_args`: None
416
+ - `adafactor`: False
417
+ - `group_by_length`: False
418
+ - `length_column_name`: length
419
+ - `ddp_find_unused_parameters`: None
420
+ - `ddp_bucket_cap_mb`: None
421
+ - `ddp_broadcast_buffers`: False
422
+ - `dataloader_pin_memory`: True
423
+ - `dataloader_persistent_workers`: False
424
+ - `skip_memory_metrics`: True
425
+ - `use_legacy_prediction_loop`: False
426
+ - `push_to_hub`: False
427
+ - `resume_from_checkpoint`: None
428
+ - `hub_model_id`: None
429
+ - `hub_strategy`: every_save
430
+ - `hub_private_repo`: None
431
+ - `hub_always_push`: False
432
+ - `gradient_checkpointing`: False
433
+ - `gradient_checkpointing_kwargs`: None
434
+ - `include_inputs_for_metrics`: False
435
+ - `include_for_metrics`: []
436
+ - `eval_do_concat_batches`: True
437
+ - `fp16_backend`: auto
438
+ - `push_to_hub_model_id`: None
439
+ - `push_to_hub_organization`: None
440
+ - `mp_parameters`:
441
+ - `auto_find_batch_size`: False
442
+ - `full_determinism`: False
443
+ - `torchdynamo`: None
444
+ - `ray_scope`: last
445
+ - `ddp_timeout`: 1800
446
+ - `torch_compile`: False
447
+ - `torch_compile_backend`: None
448
+ - `torch_compile_mode`: None
449
+ - `include_tokens_per_second`: False
450
+ - `include_num_input_tokens_seen`: False
451
+ - `neftune_noise_alpha`: None
452
+ - `optim_target_modules`: None
453
+ - `batch_eval_metrics`: False
454
+ - `eval_on_start`: False
455
+ - `use_liger_kernel`: False
456
+ - `eval_use_gather_object`: False
457
+ - `average_tokens_across_devices`: False
458
+ - `prompts`: None
459
+ - `batch_sampler`: no_duplicates
460
+ - `multi_dataset_batch_sampler`: proportional
461
+
462
+ </details>
463
+
464
+ ### Training Logs
465
+ | Epoch | Step | Training Loss | Validation Loss | mmarco_dev_cosine_accuracy | mmarco_test_cosine_accuracy |
466
+ |:---------:|:--------:|:-------------:|:---------------:|:--------------------------:|:---------------------------:|
467
+ | -1 | -1 | - | - | 0.5435 | - |
468
+ | 0.016 | 100 | 16.5916 | 15.8470 | 0.6420 | - |
469
+ | 0.032 | 200 | 13.0209 | 8.9407 | 0.7185 | - |
470
+ | 0.048 | 300 | 6.727 | 5.0859 | 0.8205 | - |
471
+ | 0.064 | 400 | 4.6045 | 4.1197 | 0.8555 | - |
472
+ | 0.08 | 500 | 3.8849 | 3.4283 | 0.8690 | - |
473
+ | 0.096 | 600 | 3.4197 | 3.0532 | 0.8765 | - |
474
+ | 0.112 | 700 | 3.0235 | 2.7099 | 0.8885 | - |
475
+ | 0.128 | 800 | 2.8111 | 2.5212 | 0.8835 | - |
476
+ | 0.144 | 900 | 2.8111 | 2.5029 | 0.8985 | - |
477
+ | 0.16 | 1000 | 2.2356 | 2.3179 | 0.9020 | - |
478
+ | 0.176 | 1100 | 2.3158 | 2.1936 | 0.9080 | - |
479
+ | 0.192 | 1200 | 2.1337 | 2.1583 | 0.9050 | - |
480
+ | 0.208 | 1300 | 2.1264 | 2.0941 | 0.9050 | - |
481
+ | 0.224 | 1400 | 2.0863 | 2.0289 | 0.9055 | - |
482
+ | 0.24 | 1500 | 2.068 | 1.9900 | 0.9120 | - |
483
+ | 0.256 | 1600 | 1.8163 | 1.8768 | 0.9175 | - |
484
+ | 0.272 | 1700 | 1.8163 | 1.8177 | 0.9185 | - |
485
+ | 0.288 | 1800 | 1.7721 | 1.7886 | 0.9200 | - |
486
+ | **0.304** | **1900** | **1.5577** | **1.7382** | **0.9235** | **-** |
487
+ | 0.32 | 2000 | 1.8269 | 1.7232 | 0.9220 | - |
488
+ | 0.336 | 2100 | 1.765 | 1.7112 | 0.9155 | - |
489
+ | -1 | -1 | - | - | - | 0.9130 |
490
+
491
+ * The bold row denotes the saved checkpoint.
492
+
493
+ ### Framework Versions
494
+ - Python: 3.11.11
495
+ - Sentence Transformers: 4.1.0.dev0
496
+ - Transformers: 4.52.0.dev0
497
+ - PyTorch: 2.6.0+cu124
498
+ - Accelerate: 1.5.2
499
+ - Datasets: 3.5.0
500
+ - Tokenizers: 0.21.1
501
+
502
+ ## Citation
503
+
504
+ ### BibTeX
505
+
506
+ #### Sentence Transformers
507
+ ```bibtex
508
+ @inproceedings{reimers-2019-sentence-bert,
509
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
510
+ author = "Reimers, Nils and Gurevych, Iryna",
511
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
512
+ month = "11",
513
+ year = "2019",
514
+ publisher = "Association for Computational Linguistics",
515
+ url = "https://arxiv.org/abs/1908.10084",
516
+ }
517
+ ```
518
+
519
+ #### MatryoshkaLoss
520
+ ```bibtex
521
+ @misc{kusupati2024matryoshka,
522
+ title={Matryoshka Representation Learning},
523
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
524
+ year={2024},
525
+ eprint={2205.13147},
526
+ archivePrefix={arXiv},
527
+ primaryClass={cs.LG}
528
+ }
529
+ ```
530
+
531
+ #### MultipleNegativesRankingLoss
532
+ ```bibtex
533
+ @misc{henderson2017efficient,
534
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
535
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
536
+ year={2017},
537
+ eprint={1705.00652},
538
+ archivePrefix={arXiv},
539
+ primaryClass={cs.CL}
540
+ }
541
+ ```
542
+
543
+ <!--
544
+ ## Glossary
545
+
546
+ *Clearly define terms in order to be accessible across audiences.*
547
+ -->
548
+
549
+ <!--
550
+ ## Model Card Authors
551
+
552
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
553
+ -->
554
+
555
+ <!--
556
+ ## Model Card Contact
557
+
558
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
559
+ -->
config.json ADDED
@@ -0,0 +1,45 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "ModernBertModel"
4
+ ],
5
+ "attention_bias": false,
6
+ "attention_dropout": 0.0,
7
+ "bos_token_id": 50281,
8
+ "classifier_activation": "gelu",
9
+ "classifier_bias": false,
10
+ "classifier_dropout": 0.0,
11
+ "classifier_pooling": "mean",
12
+ "cls_token_id": 50281,
13
+ "decoder_bias": true,
14
+ "deterministic_flash_attn": false,
15
+ "embedding_dropout": 0.0,
16
+ "eos_token_id": 50282,
17
+ "global_attn_every_n_layers": 3,
18
+ "global_rope_theta": 160000.0,
19
+ "gradient_checkpointing": false,
20
+ "hidden_activation": "gelu",
21
+ "hidden_size": 768,
22
+ "initializer_cutoff_factor": 2.0,
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 1152,
25
+ "layer_norm_eps": 1e-05,
26
+ "local_attention": 128,
27
+ "local_rope_theta": 10000.0,
28
+ "max_position_embeddings": 8192,
29
+ "mlp_bias": false,
30
+ "mlp_dropout": 0.0,
31
+ "model_type": "modernbert",
32
+ "norm_bias": false,
33
+ "norm_eps": 1e-05,
34
+ "num_attention_heads": 12,
35
+ "num_hidden_layers": 22,
36
+ "pad_token_id": 50283,
37
+ "position_embedding_type": "absolute",
38
+ "repad_logits_with_grad": false,
39
+ "sep_token_id": 50282,
40
+ "sparse_pred_ignore_index": -100,
41
+ "sparse_prediction": false,
42
+ "torch_dtype": "float32",
43
+ "transformers_version": "4.52.0.dev0",
44
+ "vocab_size": 50368
45
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0.dev0",
4
+ "transformers": "4.52.0.dev0",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
eval/triplet_evaluation_mmarco_dev_results.csv ADDED
@@ -0,0 +1,22 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ epoch,steps,accuracy_cosine
2
+ 0.016,100,0.6420000195503235
3
+ 0.032,200,0.718500018119812
4
+ 0.048,300,0.8205000162124634
5
+ 0.064,400,0.8554999828338623
6
+ 0.08,500,0.8690000176429749
7
+ 0.096,600,0.8765000104904175
8
+ 0.112,700,0.8884999752044678
9
+ 0.128,800,0.8834999799728394
10
+ 0.144,900,0.8985000252723694
11
+ 0.16,1000,0.9020000100135803
12
+ 0.176,1100,0.9079999923706055
13
+ 0.192,1200,0.9049999713897705
14
+ 0.208,1300,0.9049999713897705
15
+ 0.224,1400,0.9054999947547913
16
+ 0.24,1500,0.9120000004768372
17
+ 0.256,1600,0.9175000190734863
18
+ 0.272,1700,0.9185000061988831
19
+ 0.288,1800,0.9200000166893005
20
+ 0.304,1900,0.9235000014305115
21
+ 0.32,2000,0.921999990940094
22
+ 0.336,2100,0.9154999852180481
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:210c1bcf548d26840a6deb2c422ed50c30f278f7e7816693339b9f94de250a61
3
+ size 596070136
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": true,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,945 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "|||IP_ADDRESS|||",
5
+ "lstrip": false,
6
+ "normalized": true,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": false
10
+ },
11
+ "1": {
12
+ "content": "<|padding|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "50254": {
20
+ "content": " ",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": false
26
+ },
27
+ "50255": {
28
+ "content": " ",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": false
34
+ },
35
+ "50256": {
36
+ "content": " ",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": false
42
+ },
43
+ "50257": {
44
+ "content": " ",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": false
50
+ },
51
+ "50258": {
52
+ "content": " ",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": false
58
+ },
59
+ "50259": {
60
+ "content": " ",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": false
66
+ },
67
+ "50260": {
68
+ "content": " ",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": false
74
+ },
75
+ "50261": {
76
+ "content": " ",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": false
82
+ },
83
+ "50262": {
84
+ "content": " ",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": false
90
+ },
91
+ "50263": {
92
+ "content": " ",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": false
98
+ },
99
+ "50264": {
100
+ "content": " ",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": false
106
+ },
107
+ "50265": {
108
+ "content": " ",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": false
114
+ },
115
+ "50266": {
116
+ "content": " ",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": false
122
+ },
123
+ "50267": {
124
+ "content": " ",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": false
130
+ },
131
+ "50268": {
132
+ "content": " ",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": false
138
+ },
139
+ "50269": {
140
+ "content": " ",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": false
146
+ },
147
+ "50270": {
148
+ "content": " ",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": false
154
+ },
155
+ "50271": {
156
+ "content": " ",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": false
162
+ },
163
+ "50272": {
164
+ "content": " ",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": false
170
+ },
171
+ "50273": {
172
+ "content": " ",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": false
178
+ },
179
+ "50274": {
180
+ "content": " ",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": false
186
+ },
187
+ "50275": {
188
+ "content": " ",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": false
194
+ },
195
+ "50276": {
196
+ "content": " ",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": false
202
+ },
203
+ "50277": {
204
+ "content": "|||EMAIL_ADDRESS|||",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": false
210
+ },
211
+ "50278": {
212
+ "content": "|||PHONE_NUMBER|||",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": false
218
+ },
219
+ "50279": {
220
+ "content": "<|endoftext|>",
221
+ "lstrip": false,
222
+ "normalized": false,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": true
226
+ },
227
+ "50280": {
228
+ "content": "[UNK]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "50281": {
236
+ "content": "[CLS]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "50282": {
244
+ "content": "[SEP]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "50283": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "50284": {
260
+ "content": "[MASK]",
261
+ "lstrip": true,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "50285": {
268
+ "content": "[unused0]",
269
+ "lstrip": false,
270
+ "normalized": true,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": false
274
+ },
275
+ "50286": {
276
+ "content": "[unused1]",
277
+ "lstrip": false,
278
+ "normalized": true,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": false
282
+ },
283
+ "50287": {
284
+ "content": "[unused2]",
285
+ "lstrip": false,
286
+ "normalized": true,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": false
290
+ },
291
+ "50288": {
292
+ "content": "[unused3]",
293
+ "lstrip": false,
294
+ "normalized": true,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": false
298
+ },
299
+ "50289": {
300
+ "content": "[unused4]",
301
+ "lstrip": false,
302
+ "normalized": true,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": false
306
+ },
307
+ "50290": {
308
+ "content": "[unused5]",
309
+ "lstrip": false,
310
+ "normalized": true,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": false
314
+ },
315
+ "50291": {
316
+ "content": "[unused6]",
317
+ "lstrip": false,
318
+ "normalized": true,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": false
322
+ },
323
+ "50292": {
324
+ "content": "[unused7]",
325
+ "lstrip": false,
326
+ "normalized": true,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": false
330
+ },
331
+ "50293": {
332
+ "content": "[unused8]",
333
+ "lstrip": false,
334
+ "normalized": true,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": false
338
+ },
339
+ "50294": {
340
+ "content": "[unused9]",
341
+ "lstrip": false,
342
+ "normalized": true,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": false
346
+ },
347
+ "50295": {
348
+ "content": "[unused10]",
349
+ "lstrip": false,
350
+ "normalized": true,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": false
354
+ },
355
+ "50296": {
356
+ "content": "[unused11]",
357
+ "lstrip": false,
358
+ "normalized": true,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": false
362
+ },
363
+ "50297": {
364
+ "content": "[unused12]",
365
+ "lstrip": false,
366
+ "normalized": true,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": false
370
+ },
371
+ "50298": {
372
+ "content": "[unused13]",
373
+ "lstrip": false,
374
+ "normalized": true,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": false
378
+ },
379
+ "50299": {
380
+ "content": "[unused14]",
381
+ "lstrip": false,
382
+ "normalized": true,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": false
386
+ },
387
+ "50300": {
388
+ "content": "[unused15]",
389
+ "lstrip": false,
390
+ "normalized": true,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": false
394
+ },
395
+ "50301": {
396
+ "content": "[unused16]",
397
+ "lstrip": false,
398
+ "normalized": true,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": false
402
+ },
403
+ "50302": {
404
+ "content": "[unused17]",
405
+ "lstrip": false,
406
+ "normalized": true,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": false
410
+ },
411
+ "50303": {
412
+ "content": "[unused18]",
413
+ "lstrip": false,
414
+ "normalized": true,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": false
418
+ },
419
+ "50304": {
420
+ "content": "[unused19]",
421
+ "lstrip": false,
422
+ "normalized": true,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": false
426
+ },
427
+ "50305": {
428
+ "content": "[unused20]",
429
+ "lstrip": false,
430
+ "normalized": true,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": false
434
+ },
435
+ "50306": {
436
+ "content": "[unused21]",
437
+ "lstrip": false,
438
+ "normalized": true,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": false
442
+ },
443
+ "50307": {
444
+ "content": "[unused22]",
445
+ "lstrip": false,
446
+ "normalized": true,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": false
450
+ },
451
+ "50308": {
452
+ "content": "[unused23]",
453
+ "lstrip": false,
454
+ "normalized": true,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": false
458
+ },
459
+ "50309": {
460
+ "content": "[unused24]",
461
+ "lstrip": false,
462
+ "normalized": true,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": false
466
+ },
467
+ "50310": {
468
+ "content": "[unused25]",
469
+ "lstrip": false,
470
+ "normalized": true,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": false
474
+ },
475
+ "50311": {
476
+ "content": "[unused26]",
477
+ "lstrip": false,
478
+ "normalized": true,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": false
482
+ },
483
+ "50312": {
484
+ "content": "[unused27]",
485
+ "lstrip": false,
486
+ "normalized": true,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": false
490
+ },
491
+ "50313": {
492
+ "content": "[unused28]",
493
+ "lstrip": false,
494
+ "normalized": true,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": false
498
+ },
499
+ "50314": {
500
+ "content": "[unused29]",
501
+ "lstrip": false,
502
+ "normalized": true,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": false
506
+ },
507
+ "50315": {
508
+ "content": "[unused30]",
509
+ "lstrip": false,
510
+ "normalized": true,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": false
514
+ },
515
+ "50316": {
516
+ "content": "[unused31]",
517
+ "lstrip": false,
518
+ "normalized": true,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": false
522
+ },
523
+ "50317": {
524
+ "content": "[unused32]",
525
+ "lstrip": false,
526
+ "normalized": true,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": false
530
+ },
531
+ "50318": {
532
+ "content": "[unused33]",
533
+ "lstrip": false,
534
+ "normalized": true,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": false
538
+ },
539
+ "50319": {
540
+ "content": "[unused34]",
541
+ "lstrip": false,
542
+ "normalized": true,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": false
546
+ },
547
+ "50320": {
548
+ "content": "[unused35]",
549
+ "lstrip": false,
550
+ "normalized": true,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": false
554
+ },
555
+ "50321": {
556
+ "content": "[unused36]",
557
+ "lstrip": false,
558
+ "normalized": true,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": false
562
+ },
563
+ "50322": {
564
+ "content": "[unused37]",
565
+ "lstrip": false,
566
+ "normalized": true,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": false
570
+ },
571
+ "50323": {
572
+ "content": "[unused38]",
573
+ "lstrip": false,
574
+ "normalized": true,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": false
578
+ },
579
+ "50324": {
580
+ "content": "[unused39]",
581
+ "lstrip": false,
582
+ "normalized": true,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": false
586
+ },
587
+ "50325": {
588
+ "content": "[unused40]",
589
+ "lstrip": false,
590
+ "normalized": true,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": false
594
+ },
595
+ "50326": {
596
+ "content": "[unused41]",
597
+ "lstrip": false,
598
+ "normalized": true,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": false
602
+ },
603
+ "50327": {
604
+ "content": "[unused42]",
605
+ "lstrip": false,
606
+ "normalized": true,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": false
610
+ },
611
+ "50328": {
612
+ "content": "[unused43]",
613
+ "lstrip": false,
614
+ "normalized": true,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": false
618
+ },
619
+ "50329": {
620
+ "content": "[unused44]",
621
+ "lstrip": false,
622
+ "normalized": true,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": false
626
+ },
627
+ "50330": {
628
+ "content": "[unused45]",
629
+ "lstrip": false,
630
+ "normalized": true,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": false
634
+ },
635
+ "50331": {
636
+ "content": "[unused46]",
637
+ "lstrip": false,
638
+ "normalized": true,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": false
642
+ },
643
+ "50332": {
644
+ "content": "[unused47]",
645
+ "lstrip": false,
646
+ "normalized": true,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": false
650
+ },
651
+ "50333": {
652
+ "content": "[unused48]",
653
+ "lstrip": false,
654
+ "normalized": true,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": false
658
+ },
659
+ "50334": {
660
+ "content": "[unused49]",
661
+ "lstrip": false,
662
+ "normalized": true,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": false
666
+ },
667
+ "50335": {
668
+ "content": "[unused50]",
669
+ "lstrip": false,
670
+ "normalized": true,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": false
674
+ },
675
+ "50336": {
676
+ "content": "[unused51]",
677
+ "lstrip": false,
678
+ "normalized": true,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": false
682
+ },
683
+ "50337": {
684
+ "content": "[unused52]",
685
+ "lstrip": false,
686
+ "normalized": true,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": false
690
+ },
691
+ "50338": {
692
+ "content": "[unused53]",
693
+ "lstrip": false,
694
+ "normalized": true,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": false
698
+ },
699
+ "50339": {
700
+ "content": "[unused54]",
701
+ "lstrip": false,
702
+ "normalized": true,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": false
706
+ },
707
+ "50340": {
708
+ "content": "[unused55]",
709
+ "lstrip": false,
710
+ "normalized": true,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": false
714
+ },
715
+ "50341": {
716
+ "content": "[unused56]",
717
+ "lstrip": false,
718
+ "normalized": true,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": false
722
+ },
723
+ "50342": {
724
+ "content": "[unused57]",
725
+ "lstrip": false,
726
+ "normalized": true,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": false
730
+ },
731
+ "50343": {
732
+ "content": "[unused58]",
733
+ "lstrip": false,
734
+ "normalized": true,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": false
738
+ },
739
+ "50344": {
740
+ "content": "[unused59]",
741
+ "lstrip": false,
742
+ "normalized": true,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": false
746
+ },
747
+ "50345": {
748
+ "content": "[unused60]",
749
+ "lstrip": false,
750
+ "normalized": true,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": false
754
+ },
755
+ "50346": {
756
+ "content": "[unused61]",
757
+ "lstrip": false,
758
+ "normalized": true,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": false
762
+ },
763
+ "50347": {
764
+ "content": "[unused62]",
765
+ "lstrip": false,
766
+ "normalized": true,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": false
770
+ },
771
+ "50348": {
772
+ "content": "[unused63]",
773
+ "lstrip": false,
774
+ "normalized": true,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": false
778
+ },
779
+ "50349": {
780
+ "content": "[unused64]",
781
+ "lstrip": false,
782
+ "normalized": true,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": false
786
+ },
787
+ "50350": {
788
+ "content": "[unused65]",
789
+ "lstrip": false,
790
+ "normalized": true,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": false
794
+ },
795
+ "50351": {
796
+ "content": "[unused66]",
797
+ "lstrip": false,
798
+ "normalized": true,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": false
802
+ },
803
+ "50352": {
804
+ "content": "[unused67]",
805
+ "lstrip": false,
806
+ "normalized": true,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": false
810
+ },
811
+ "50353": {
812
+ "content": "[unused68]",
813
+ "lstrip": false,
814
+ "normalized": true,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": false
818
+ },
819
+ "50354": {
820
+ "content": "[unused69]",
821
+ "lstrip": false,
822
+ "normalized": true,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": false
826
+ },
827
+ "50355": {
828
+ "content": "[unused70]",
829
+ "lstrip": false,
830
+ "normalized": true,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": false
834
+ },
835
+ "50356": {
836
+ "content": "[unused71]",
837
+ "lstrip": false,
838
+ "normalized": true,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": false
842
+ },
843
+ "50357": {
844
+ "content": "[unused72]",
845
+ "lstrip": false,
846
+ "normalized": true,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": false
850
+ },
851
+ "50358": {
852
+ "content": "[unused73]",
853
+ "lstrip": false,
854
+ "normalized": true,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": false
858
+ },
859
+ "50359": {
860
+ "content": "[unused74]",
861
+ "lstrip": false,
862
+ "normalized": true,
863
+ "rstrip": false,
864
+ "single_word": false,
865
+ "special": false
866
+ },
867
+ "50360": {
868
+ "content": "[unused75]",
869
+ "lstrip": false,
870
+ "normalized": true,
871
+ "rstrip": false,
872
+ "single_word": false,
873
+ "special": false
874
+ },
875
+ "50361": {
876
+ "content": "[unused76]",
877
+ "lstrip": false,
878
+ "normalized": true,
879
+ "rstrip": false,
880
+ "single_word": false,
881
+ "special": false
882
+ },
883
+ "50362": {
884
+ "content": "[unused77]",
885
+ "lstrip": false,
886
+ "normalized": true,
887
+ "rstrip": false,
888
+ "single_word": false,
889
+ "special": false
890
+ },
891
+ "50363": {
892
+ "content": "[unused78]",
893
+ "lstrip": false,
894
+ "normalized": true,
895
+ "rstrip": false,
896
+ "single_word": false,
897
+ "special": false
898
+ },
899
+ "50364": {
900
+ "content": "[unused79]",
901
+ "lstrip": false,
902
+ "normalized": true,
903
+ "rstrip": false,
904
+ "single_word": false,
905
+ "special": false
906
+ },
907
+ "50365": {
908
+ "content": "[unused80]",
909
+ "lstrip": false,
910
+ "normalized": true,
911
+ "rstrip": false,
912
+ "single_word": false,
913
+ "special": false
914
+ },
915
+ "50366": {
916
+ "content": "[unused81]",
917
+ "lstrip": false,
918
+ "normalized": true,
919
+ "rstrip": false,
920
+ "single_word": false,
921
+ "special": false
922
+ },
923
+ "50367": {
924
+ "content": "[unused82]",
925
+ "lstrip": false,
926
+ "normalized": true,
927
+ "rstrip": false,
928
+ "single_word": false,
929
+ "special": false
930
+ }
931
+ },
932
+ "clean_up_tokenization_spaces": true,
933
+ "cls_token": "[CLS]",
934
+ "extra_special_tokens": {},
935
+ "mask_token": "[MASK]",
936
+ "model_input_names": [
937
+ "input_ids",
938
+ "attention_mask"
939
+ ],
940
+ "model_max_length": 1000000000000000019884624838656,
941
+ "pad_token": "[PAD]",
942
+ "sep_token": "[SEP]",
943
+ "tokenizer_class": "PreTrainedTokenizer",
944
+ "unk_token": "[UNK]"
945
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:34522c5cbdcc187efa7bec847e955a1509a33d6207afe9946c95852b809b4798
3
+ size 5624