Add SetFit model
Browse files- README.md +48 -30
- config.json +11 -10
- config_setfit.json +5 -4
- model.safetensors +2 -2
- model_head.pkl +2 -2
- special_tokens_map.json +5 -19
- tokenizer.json +0 -0
- tokenizer_config.json +51 -17
- vocab.txt +0 -0
README.md
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
---
|
2 |
-
base_model:
|
3 |
library_name: setfit
|
4 |
metrics:
|
5 |
- accuracy
|
@@ -10,18 +10,33 @@ tags:
|
|
10 |
- text-classification
|
11 |
- generated_from_setfit_trainer
|
12 |
widget:
|
13 |
-
- text:
|
14 |
-
|
15 |
-
|
16 |
-
|
17 |
-
- text:
|
18 |
-
|
19 |
-
- text:
|
20 |
-
|
21 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
22 |
inference: true
|
23 |
model-index:
|
24 |
-
- name: SetFit with
|
25 |
results:
|
26 |
- task:
|
27 |
type: text-classification
|
@@ -32,13 +47,13 @@ model-index:
|
|
32 |
split: test
|
33 |
metrics:
|
34 |
- type: accuracy
|
35 |
-
value: 0.
|
36 |
name: Accuracy
|
37 |
---
|
38 |
|
39 |
-
# SetFit with
|
40 |
|
41 |
-
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [
|
42 |
|
43 |
The model has been trained using an efficient few-shot learning technique that involves:
|
44 |
|
@@ -49,10 +64,10 @@ The model has been trained using an efficient few-shot learning technique that i
|
|
49 |
|
50 |
### Model Description
|
51 |
- **Model Type:** SetFit
|
52 |
-
- **Sentence Transformer body:** [
|
53 |
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
54 |
- **Maximum Sequence Length:** 512 tokens
|
55 |
-
- **Number of Classes:**
|
56 |
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
57 |
<!-- - **Language:** Unknown -->
|
58 |
<!-- - **License:** Unknown -->
|
@@ -64,17 +79,18 @@ The model has been trained using an efficient few-shot learning technique that i
|
|
64 |
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
65 |
|
66 |
### Model Labels
|
67 |
-
| Label | Examples
|
68 |
-
|
69 |
-
|
|
70 |
-
|
|
|
|
71 |
|
72 |
## Evaluation
|
73 |
|
74 |
### Metrics
|
75 |
| Label | Accuracy |
|
76 |
|:--------|:---------|
|
77 |
-
| **all** | 0.
|
78 |
|
79 |
## Uses
|
80 |
|
@@ -94,7 +110,7 @@ from setfit import SetFitModel
|
|
94 |
# Download from the 🤗 Hub
|
95 |
model = SetFitModel.from_pretrained("akhooli/setfit")
|
96 |
# Run inference
|
97 |
-
preds = model("
|
98 |
```
|
99 |
|
100 |
<!--
|
@@ -126,12 +142,13 @@ preds = model("a sequence of ridiculous shoot - 'em - up scenes . ")
|
|
126 |
### Training Set Metrics
|
127 |
| Training set | Min | Median | Max |
|
128 |
|:-------------|:----|:-------|:----|
|
129 |
-
| Word count |
|
130 |
|
131 |
| Label | Training Sample Count |
|
132 |
|:---------|:----------------------|
|
133 |
-
|
|
134 |
-
|
|
|
|
135 |
|
136 |
### Training Hyperparameters
|
137 |
- batch_size: (16, 16)
|
@@ -154,11 +171,12 @@ preds = model("a sequence of ridiculous shoot - 'em - up scenes . ")
|
|
154 |
### Training Results
|
155 |
| Epoch | Step | Training Loss | Validation Loss |
|
156 |
|:------:|:----:|:-------------:|:---------------:|
|
157 |
-
| 0.
|
158 |
-
| 1.0 |
|
159 |
-
| 2.0 |
|
160 |
-
|
|
161 |
-
|
|
|
|
162 |
|
163 |
### Framework Versions
|
164 |
- Python: 3.10.12
|
|
|
1 |
---
|
2 |
+
base_model: akhooli/Arabic-SBERT-100K
|
3 |
library_name: setfit
|
4 |
metrics:
|
5 |
- accuracy
|
|
|
10 |
- text-classification
|
11 |
- generated_from_setfit_trainer
|
12 |
widget:
|
13 |
+
- text: كتاب كشف لنا حقائق لم نكن نعرفها من قبل، واسترسل الاحداث بشفافية تامة واظهر
|
14 |
+
لنا معارضة وكره السلطة في الكويت للديمقراطية،. كتاب مفيد جدا لمن يريد ان يزيد
|
15 |
+
من معلوماته عن تاريخ الكويت السياسي. حفظ الله الدكتور احمد الخطيب ورزقه الصحة
|
16 |
+
والعافية
|
17 |
+
- text: الصورة غير الواقعة . سعة الغرفة جدا ممتاز أما دورة المياة صغيرة ومزدحمة بداخل
|
18 |
+
.. اثاث قديم والبعض يوجد به إتلاف كما أن دورة المياة تحتاج إلى صيانة دورية
|
19 |
+
- text: كان جزء من المطعم يقع في الهواء الطلق كانت أسوأ تجربة مررت بها عندما كنت أجلس
|
20 |
+
خارج الفندق لتناول مشروب في المساء أثناء مشاهدة مبارة التشيك مع تركيا في بطولة
|
21 |
+
يورو . تلقى السائح الألماني الذي كان يجلس على الطاولة بجانبنا فاتورة تضم تكاليف
|
22 |
+
طعام ومشروبات لم يطلبها ولكنها وضعت على طاولته وثمن طعام لم يصل أيضا كان النادل
|
23 |
+
غير مبال وهز كتفيه ثم أحضر المدير الذي لم يكن متعاونا بنفس القدر. ثم كانت دهشتنا
|
24 |
+
عندما ذهب المدير ليطرق نافذة سيارة الشرطة التي كانت متوقفة خارج منطقة الجلوس لمراقبة
|
25 |
+
الحشود التي كانت تشاهد المباراة على شاشة كبيرة في ميدان وينسيسلاس. هناك الآن رجال
|
26 |
+
شرطة والمدير والنادل يواجهون هذا الرجل الذي كان مؤدبا وهادئا للغاية لكنه كان مصرا
|
27 |
+
على الدفاع عن موقفه. ظل يدعي أنه لم يجلس على الطاولة لفترة طويلة بما يكفي لتناول
|
28 |
+
وشرب ما كانوا يطالبونه بالدفع مقابله. كان المشهد مروعا ويحدث على بعد متر من طاولتنا،
|
29 |
+
لذا قررنا المغادرة. المكان في حاجة إلى بعض خدمة العملاء كانت المشروبات باهظة الثمن
|
30 |
+
للغاية. تجنب هذا المكان. جرب تناول الطعام أو مشروب في نيبوزيزيك في منتصف الطريق
|
31 |
+
المائل إلى بيترن هيل الأسعار جميلة ومعقولة.
|
32 |
+
- text: الرواية دي اي كلام يتقال عليها يقلل من قيمتها لأنها احسن من اي ريفيو...ببساطة
|
33 |
+
خمس نجوم لا تكفي
|
34 |
+
- text: مقبول. الموقع قريب من الحرم النبوي. الاستقبال كان سيء جدا، الأثاث قديم جدا
|
35 |
+
، المطعم صغير ومزدحم والقيمة مقابل المال دون المستوىلاأنصح أبدا بالإقامة فيه،
|
36 |
+
حيث أن وجدت هناك فنادق أفضل منه وأرخص
|
37 |
inference: true
|
38 |
model-index:
|
39 |
+
- name: SetFit with akhooli/Arabic-SBERT-100K
|
40 |
results:
|
41 |
- task:
|
42 |
type: text-classification
|
|
|
47 |
split: test
|
48 |
metrics:
|
49 |
- type: accuracy
|
50 |
+
value: 0.5033333333333333
|
51 |
name: Accuracy
|
52 |
---
|
53 |
|
54 |
+
# SetFit with akhooli/Arabic-SBERT-100K
|
55 |
|
56 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [akhooli/Arabic-SBERT-100K](https://huggingface.co/akhooli/Arabic-SBERT-100K) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
57 |
|
58 |
The model has been trained using an efficient few-shot learning technique that involves:
|
59 |
|
|
|
64 |
|
65 |
### Model Description
|
66 |
- **Model Type:** SetFit
|
67 |
+
- **Sentence Transformer body:** [akhooli/Arabic-SBERT-100K](https://huggingface.co/akhooli/Arabic-SBERT-100K)
|
68 |
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
69 |
- **Maximum Sequence Length:** 512 tokens
|
70 |
+
- **Number of Classes:** 3 classes
|
71 |
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
72 |
<!-- - **Language:** Unknown -->
|
73 |
<!-- - **License:** Unknown -->
|
|
|
79 |
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
80 |
|
81 |
### Model Labels
|
82 |
+
| Label | Examples |
|
83 |
+
|:---------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
84 |
+
| Positive | <ul><li>'. نجمات. قصة جيدة. لا أدري ما الذي أغضبني أكثر تعامل البشر مع الحيوانات أم تعامل الخنازير مع الحيوانات .. لأنه يبدو لي أن الخنازير كانت بارعة في دور الإنسان أكثر من الإنسان نفسه . لقراءتي عن بعض الثورات مؤخرا رحت أقارن بين الأحداث هنا و هناك يا ترى هل سيكون لجميعها نهاية كهذه ؟ هل سيكون لكل شخص بدوره المذكور نهاية كالتي طالته هنا كذلك ؟'</li><li>'وكأن ما يكتبه قد كتبته بيدي أصبح اأعرف حتى ما ينوي قوله تعجز الكلامات عن وصفه'</li><li>'تقول في روايتها : لا أفقر من امرأة لا ذكريات لها. وأنا أقول لا أفقر من قارئ لا يقرأ لها. ... أعتقد أن أحلام أرادت أن تنتصر المرأه هذه المره حتى على حساب الحب. بنسبه إلي كانت لغة أحلام قوية كعادتها تجيد أختيار الخيوط لكن هذه المره فشل في حياكتها. أظنها أرادتها كنزه أفصبحت جورب. أو أن في كتابها الأخير نسيان أردات أن يطبق هذا على واقع أوراقها وينسى الحب أبطاله'</li></ul> |
|
85 |
+
| Mixed | <ul><li>'مناسب للميزانيات المحدودة . قرب الفندق من ديرة ستي سنتر نظيف و مرتب مقارنة بالفنادق اللي بنفس السعر. الاضاءة ضعيفة سواء في الغرف او في الاستقبالالفطور بسيط وطلبات الغرف تقدم بصينية وصحون بلاستيكية'</li><li>'نعيش أياما سوداء يا صديقى إذا كانت لديك فرصة للهجرة أرجوك هاجر ، و إذا كان ابنك أو شقيقك يحلم بالهجرة أرجوك لا تقف فى طريقه ، و إذا كنت بره أساسا أرجوك خليك عندك ؛ فالبلد لن ينصلح حاله قريبا حتى لو تغير النظام ، فالمشكلة الأكبر فى الناس ، الهجرة يا صديقى الهجرة .. الحياة ليست بروفة وستعيش مرة واحدة فحاول أن تعيشها صح .'</li><li>'متعب. أقمت كجزء من مجموعة. لم أنفق مثل تلك النفقات الكثيرة منذ أن تم تطويره والتي تبدو نفقات باهظة في لمح البصر. بدا مكلفا للغاية مقارنة بالوضع الذي كان عليه. وبكلامنا نحن الإنجليز، الفندق نجوم إلى حد كبير وليس مجرد نجوم، ولكنه قديم جدا بالفعل... كانت الغرفة ذات ورق حائط ملطخ والسجاجيد رقيقة والسرير غير مستو ولكن الأغطية والألحفة نظيفة ورائعة . كانت هناك بعض الأمور الغريبة، على سبيل المثال: لم لم تكن هناك مصاعد جاهزة في الطابق الأرضي مطلقا؟ كانت غرفة البخار لا تعمل طوال الأسبوع. لا يتم تقديم الكحول في الردهة بعد الساعة الثانية عشر لكن كان يقدم في النادي الصاخب فى الطابق الثالث. المكان مناسب للعمل ولمشاهدة المناظر بشكل معقول. إذا كنت في رحلة رومانسية إلى هانوي... فلا مجال لذلك'</li></ul> |
|
86 |
+
| Negative | <ul><li>'مخيب للأمل. . أصوات أعمال بناء و إزعاج شديد من مطارق و حفر من الصباح الباكر لم نستطع بسببها النوم و الراحة مع عدم تجاوب مسؤول الفندق مع الشكوى و التعامل غير الجيد مع الشكوى'</li><li>'مش سطحية بس الخلاصة ثورات انقلابات قتل قتل قتل كتير. اللى يصحى بدري يمسك الحكم'</li><li>'رواية مملة ، لم أستفد منها شيئا سوى من ناحية الأحداث المتوقعه أغلبها أو حتى من الناحية اللغوية ، لا أنكر أن هناك بعض العبارات الجميلة لكن لم توظف ف المكان ولا الزمن المناسب لذا فقدت روعتها ، يجب على الكاتب أن يكثف القراءة ويعيد ترتيب حساباته ، بالمناسبة هو يمتلك قلم جيد لكن لم يستخدم بشكل جميل .'</li></ul> |
|
87 |
|
88 |
## Evaluation
|
89 |
|
90 |
### Metrics
|
91 |
| Label | Accuracy |
|
92 |
|:--------|:---------|
|
93 |
+
| **all** | 0.5033 |
|
94 |
|
95 |
## Uses
|
96 |
|
|
|
110 |
# Download from the 🤗 Hub
|
111 |
model = SetFitModel.from_pretrained("akhooli/setfit")
|
112 |
# Run inference
|
113 |
+
preds = model("الرواية دي اي كلام يتقال عليها يقلل من قيمتها لأنها احسن من اي ريفيو...ببساطة خمس نجوم لا تكفي")
|
114 |
```
|
115 |
|
116 |
<!--
|
|
|
142 |
### Training Set Metrics
|
143 |
| Training set | Min | Median | Max |
|
144 |
|:-------------|:----|:-------|:----|
|
145 |
+
| Word count | 5 | 38.625 | 127 |
|
146 |
|
147 |
| Label | Training Sample Count |
|
148 |
|:---------|:----------------------|
|
149 |
+
| Negative | 8 |
|
150 |
+
| Positive | 8 |
|
151 |
+
| Mixed | 8 |
|
152 |
|
153 |
### Training Hyperparameters
|
154 |
- batch_size: (16, 16)
|
|
|
171 |
### Training Results
|
172 |
| Epoch | Step | Training Loss | Validation Loss |
|
173 |
|:------:|:----:|:-------------:|:---------------:|
|
174 |
+
| 0.0417 | 1 | 0.2812 | - |
|
175 |
+
| 1.0 | 24 | - | 0.2691 |
|
176 |
+
| 2.0 | 48 | - | 0.2961 |
|
177 |
+
| 2.0833 | 50 | 0.1176 | - |
|
178 |
+
| 3.0 | 72 | - | 0.2998 |
|
179 |
+
| 4.0 | 96 | - | 0.2992 |
|
180 |
|
181 |
### Framework Versions
|
182 |
- Python: 3.10.12
|
config.json
CHANGED
@@ -1,24 +1,25 @@
|
|
1 |
{
|
2 |
-
"_name_or_path": "
|
3 |
"architectures": [
|
4 |
-
"
|
5 |
],
|
6 |
"attention_probs_dropout_prob": 0.1,
|
7 |
-
"
|
8 |
-
"eos_token_id": 2,
|
9 |
"hidden_act": "gelu",
|
10 |
"hidden_dropout_prob": 0.1,
|
11 |
"hidden_size": 768,
|
12 |
"initializer_range": 0.02,
|
13 |
"intermediate_size": 3072,
|
14 |
-
"layer_norm_eps": 1e-
|
15 |
-
"max_position_embeddings":
|
16 |
-
"model_type": "
|
17 |
"num_attention_heads": 12,
|
18 |
"num_hidden_layers": 12,
|
19 |
-
"pad_token_id":
|
20 |
-
"
|
21 |
"torch_dtype": "float32",
|
22 |
"transformers_version": "4.44.2",
|
23 |
-
"
|
|
|
|
|
24 |
}
|
|
|
1 |
{
|
2 |
+
"_name_or_path": "akhooli/Arabic-SBERT-100K",
|
3 |
"architectures": [
|
4 |
+
"BertModel"
|
5 |
],
|
6 |
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
|
|
8 |
"hidden_act": "gelu",
|
9 |
"hidden_dropout_prob": 0.1,
|
10 |
"hidden_size": 768,
|
11 |
"initializer_range": 0.02,
|
12 |
"intermediate_size": 3072,
|
13 |
+
"layer_norm_eps": 1e-12,
|
14 |
+
"max_position_embeddings": 512,
|
15 |
+
"model_type": "bert",
|
16 |
"num_attention_heads": 12,
|
17 |
"num_hidden_layers": 12,
|
18 |
+
"pad_token_id": 0,
|
19 |
+
"position_embedding_type": "absolute",
|
20 |
"torch_dtype": "float32",
|
21 |
"transformers_version": "4.44.2",
|
22 |
+
"type_vocab_size": 2,
|
23 |
+
"use_cache": true,
|
24 |
+
"vocab_size": 64000
|
25 |
}
|
config_setfit.json
CHANGED
@@ -1,7 +1,8 @@
|
|
1 |
{
|
2 |
-
"normalize_embeddings": false,
|
3 |
"labels": [
|
4 |
-
"
|
5 |
-
"
|
6 |
-
|
|
|
|
|
7 |
}
|
|
|
1 |
{
|
|
|
2 |
"labels": [
|
3 |
+
"Negative",
|
4 |
+
"Positive",
|
5 |
+
"Mixed"
|
6 |
+
],
|
7 |
+
"normalize_embeddings": false
|
8 |
}
|
model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:98a0aefcb06a12c4fb501885a58163601ed4e2f33bb9fb73c3fd654f50489099
|
3 |
+
size 540795752
|
model_head.pkl
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:f2d74830c3470ace4002b713cfe716bd092b489f4d5fb39d63d18759ab49fd82
|
3 |
+
size 19391
|
special_tokens_map.json
CHANGED
@@ -1,41 +1,27 @@
|
|
1 |
{
|
2 |
-
"bos_token": {
|
3 |
-
"content": "<s>",
|
4 |
-
"lstrip": false,
|
5 |
-
"normalized": false,
|
6 |
-
"rstrip": false,
|
7 |
-
"single_word": false
|
8 |
-
},
|
9 |
"cls_token": {
|
10 |
-
"content": "
|
11 |
-
"lstrip": false,
|
12 |
-
"normalized": false,
|
13 |
-
"rstrip": false,
|
14 |
-
"single_word": false
|
15 |
-
},
|
16 |
-
"eos_token": {
|
17 |
-
"content": "</s>",
|
18 |
"lstrip": false,
|
19 |
"normalized": false,
|
20 |
"rstrip": false,
|
21 |
"single_word": false
|
22 |
},
|
23 |
"mask_token": {
|
24 |
-
"content": "
|
25 |
-
"lstrip":
|
26 |
"normalized": false,
|
27 |
"rstrip": false,
|
28 |
"single_word": false
|
29 |
},
|
30 |
"pad_token": {
|
31 |
-
"content": "
|
32 |
"lstrip": false,
|
33 |
"normalized": false,
|
34 |
"rstrip": false,
|
35 |
"single_word": false
|
36 |
},
|
37 |
"sep_token": {
|
38 |
-
"content": "
|
39 |
"lstrip": false,
|
40 |
"normalized": false,
|
41 |
"rstrip": false,
|
|
|
1 |
{
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
"lstrip": false,
|
5 |
"normalized": false,
|
6 |
"rstrip": false,
|
7 |
"single_word": false
|
8 |
},
|
9 |
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
"normalized": false,
|
13 |
"rstrip": false,
|
14 |
"single_word": false
|
15 |
},
|
16 |
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
"lstrip": false,
|
19 |
"normalized": false,
|
20 |
"rstrip": false,
|
21 |
"single_word": false
|
22 |
},
|
23 |
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
"lstrip": false,
|
26 |
"normalized": false,
|
27 |
"rstrip": false,
|
tokenizer.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
CHANGED
@@ -1,7 +1,7 @@
|
|
1 |
{
|
2 |
"added_tokens_decoder": {
|
3 |
"0": {
|
4 |
-
"content": "
|
5 |
"lstrip": false,
|
6 |
"normalized": false,
|
7 |
"rstrip": false,
|
@@ -9,7 +9,7 @@
|
|
9 |
"special": true
|
10 |
},
|
11 |
"1": {
|
12 |
-
"content": "
|
13 |
"lstrip": false,
|
14 |
"normalized": false,
|
15 |
"rstrip": false,
|
@@ -17,43 +17,77 @@
|
|
17 |
"special": true
|
18 |
},
|
19 |
"2": {
|
20 |
-
"content": "
|
21 |
"lstrip": false,
|
22 |
"normalized": false,
|
23 |
"rstrip": false,
|
24 |
"single_word": false,
|
25 |
"special": true
|
26 |
},
|
27 |
-
"
|
28 |
-
"content": "[
|
29 |
"lstrip": false,
|
30 |
"normalized": false,
|
31 |
"rstrip": false,
|
32 |
"single_word": false,
|
33 |
"special": true
|
34 |
},
|
35 |
-
"
|
36 |
-
"content": "
|
37 |
-
"lstrip":
|
38 |
"normalized": false,
|
39 |
"rstrip": false,
|
40 |
"single_word": false,
|
41 |
"special": true
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
42 |
}
|
43 |
},
|
44 |
-
"bos_token": "<s>",
|
45 |
"clean_up_tokenization_spaces": true,
|
46 |
-
"cls_token": "
|
47 |
"do_basic_tokenize": true,
|
48 |
-
"do_lower_case":
|
49 |
-
"
|
50 |
-
"
|
|
|
51 |
"model_max_length": 512,
|
52 |
-
"never_split":
|
53 |
-
|
54 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
55 |
"strip_accents": null,
|
56 |
"tokenize_chinese_chars": true,
|
57 |
-
"tokenizer_class": "
|
|
|
|
|
58 |
"unk_token": "[UNK]"
|
59 |
}
|
|
|
1 |
{
|
2 |
"added_tokens_decoder": {
|
3 |
"0": {
|
4 |
+
"content": "[PAD]",
|
5 |
"lstrip": false,
|
6 |
"normalized": false,
|
7 |
"rstrip": false,
|
|
|
9 |
"special": true
|
10 |
},
|
11 |
"1": {
|
12 |
+
"content": "[UNK]",
|
13 |
"lstrip": false,
|
14 |
"normalized": false,
|
15 |
"rstrip": false,
|
|
|
17 |
"special": true
|
18 |
},
|
19 |
"2": {
|
20 |
+
"content": "[CLS]",
|
21 |
"lstrip": false,
|
22 |
"normalized": false,
|
23 |
"rstrip": false,
|
24 |
"single_word": false,
|
25 |
"special": true
|
26 |
},
|
27 |
+
"3": {
|
28 |
+
"content": "[SEP]",
|
29 |
"lstrip": false,
|
30 |
"normalized": false,
|
31 |
"rstrip": false,
|
32 |
"single_word": false,
|
33 |
"special": true
|
34 |
},
|
35 |
+
"4": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
"normalized": false,
|
39 |
"rstrip": false,
|
40 |
"single_word": false,
|
41 |
"special": true
|
42 |
+
},
|
43 |
+
"5": {
|
44 |
+
"content": "[رابط]",
|
45 |
+
"lstrip": false,
|
46 |
+
"normalized": true,
|
47 |
+
"rstrip": false,
|
48 |
+
"single_word": true,
|
49 |
+
"special": true
|
50 |
+
},
|
51 |
+
"6": {
|
52 |
+
"content": "[بريد]",
|
53 |
+
"lstrip": false,
|
54 |
+
"normalized": true,
|
55 |
+
"rstrip": false,
|
56 |
+
"single_word": true,
|
57 |
+
"special": true
|
58 |
+
},
|
59 |
+
"7": {
|
60 |
+
"content": "[مستخدم]",
|
61 |
+
"lstrip": false,
|
62 |
+
"normalized": true,
|
63 |
+
"rstrip": false,
|
64 |
+
"single_word": true,
|
65 |
+
"special": true
|
66 |
}
|
67 |
},
|
|
|
68 |
"clean_up_tokenization_spaces": true,
|
69 |
+
"cls_token": "[CLS]",
|
70 |
"do_basic_tokenize": true,
|
71 |
+
"do_lower_case": false,
|
72 |
+
"mask_token": "[MASK]",
|
73 |
+
"max_len": 512,
|
74 |
+
"max_length": 512,
|
75 |
"model_max_length": 512,
|
76 |
+
"never_split": [
|
77 |
+
"[بريد]",
|
78 |
+
"[مستخدم]",
|
79 |
+
"[رابط]"
|
80 |
+
],
|
81 |
+
"pad_to_multiple_of": null,
|
82 |
+
"pad_token": "[PAD]",
|
83 |
+
"pad_token_type_id": 0,
|
84 |
+
"padding_side": "right",
|
85 |
+
"sep_token": "[SEP]",
|
86 |
+
"stride": 0,
|
87 |
"strip_accents": null,
|
88 |
"tokenize_chinese_chars": true,
|
89 |
+
"tokenizer_class": "BertTokenizer",
|
90 |
+
"truncation_side": "right",
|
91 |
+
"truncation_strategy": "longest_first",
|
92 |
"unk_token": "[UNK]"
|
93 |
}
|
vocab.txt
CHANGED
The diff for this file is too large to render.
See raw diff
|
|