akhooli commited on
Commit
9d3af0b
1 Parent(s): dd9a529

Add SetFit model

Browse files
README.md CHANGED
@@ -1,5 +1,5 @@
1
  ---
2
- base_model: sentence-transformers/paraphrase-mpnet-base-v2
3
  library_name: setfit
4
  metrics:
5
  - accuracy
@@ -10,18 +10,33 @@ tags:
10
  - text-classification
11
  - generated_from_setfit_trainer
12
  widget:
13
- - text: 'green might want to hang onto that ski mask , as robbery may be the only
14
- way to pay for his next project . '
15
- - text: 'even horror fans will most likely not find what they ''re seeking with trouble
16
- every day ; the movie lacks both thrills and humor . '
17
- - text: 'the acting , costumes , music , cinematography and sound are all astounding
18
- given the production ''s austere locales . '
19
- - text: 'byler reveals his characters in a way that intrigues and even fascinates
20
- us , and he never reduces the situation to simple melodrama . '
21
- - text: 'a sequence of ridiculous shoot - ''em - up scenes . '
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
22
  inference: true
23
  model-index:
24
- - name: SetFit with sentence-transformers/paraphrase-mpnet-base-v2
25
  results:
26
  - task:
27
  type: text-classification
@@ -32,13 +47,13 @@ model-index:
32
  split: test
33
  metrics:
34
  - type: accuracy
35
- value: 0.8484455958549223
36
  name: Accuracy
37
  ---
38
 
39
- # SetFit with sentence-transformers/paraphrase-mpnet-base-v2
40
 
41
- This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-mpnet-base-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
42
 
43
  The model has been trained using an efficient few-shot learning technique that involves:
44
 
@@ -49,10 +64,10 @@ The model has been trained using an efficient few-shot learning technique that i
49
 
50
  ### Model Description
51
  - **Model Type:** SetFit
52
- - **Sentence Transformer body:** [sentence-transformers/paraphrase-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-mpnet-base-v2)
53
  - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
54
  - **Maximum Sequence Length:** 512 tokens
55
- - **Number of Classes:** 2 classes
56
  <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
57
  <!-- - **Language:** Unknown -->
58
  <!-- - **License:** Unknown -->
@@ -64,17 +79,18 @@ The model has been trained using an efficient few-shot learning technique that i
64
  - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
65
 
66
  ### Model Labels
67
- | Label | Examples |
68
- |:---------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
69
- | positive | <ul><li>'a powerful and reasonably fulfilling gestalt '</li><li>'while the importance of being earnest offers opportunities for occasional smiles and chuckles '</li><li>'the proud warrior that still lingers in the souls of these characters '</li></ul> |
70
- | negative | <ul><li>'hate yourself '</li><li>'eight crazy nights is a total misfire . '</li><li>'guilty about it '</li></ul> |
 
71
 
72
  ## Evaluation
73
 
74
  ### Metrics
75
  | Label | Accuracy |
76
  |:--------|:---------|
77
- | **all** | 0.8484 |
78
 
79
  ## Uses
80
 
@@ -94,7 +110,7 @@ from setfit import SetFitModel
94
  # Download from the 🤗 Hub
95
  model = SetFitModel.from_pretrained("akhooli/setfit")
96
  # Run inference
97
- preds = model("a sequence of ridiculous shoot - 'em - up scenes . ")
98
  ```
99
 
100
  <!--
@@ -126,12 +142,13 @@ preds = model("a sequence of ridiculous shoot - 'em - up scenes . ")
126
  ### Training Set Metrics
127
  | Training set | Min | Median | Max |
128
  |:-------------|:----|:-------|:----|
129
- | Word count | 3 | 7.875 | 18 |
130
 
131
  | Label | Training Sample Count |
132
  |:---------|:----------------------|
133
- | negative | 8 |
134
- | positive | 8 |
 
135
 
136
  ### Training Hyperparameters
137
  - batch_size: (16, 16)
@@ -154,11 +171,12 @@ preds = model("a sequence of ridiculous shoot - 'em - up scenes . ")
154
  ### Training Results
155
  | Epoch | Step | Training Loss | Validation Loss |
156
  |:------:|:----:|:-------------:|:---------------:|
157
- | 0.1111 | 1 | 0.2847 | - |
158
- | 1.0 | 9 | - | 0.2303 |
159
- | 2.0 | 18 | - | 0.1917 |
160
- | 3.0 | 27 | - | 0.1718 |
161
- | 4.0 | 36 | - | 0.1715 |
 
162
 
163
  ### Framework Versions
164
  - Python: 3.10.12
 
1
  ---
2
+ base_model: akhooli/Arabic-SBERT-100K
3
  library_name: setfit
4
  metrics:
5
  - accuracy
 
10
  - text-classification
11
  - generated_from_setfit_trainer
12
  widget:
13
+ - text: كتاب كشف لنا حقائق لم نكن نعرفها من قبل، واسترسل الاحداث بشفافية تامة واظهر
14
+ لنا معارضة وكره السلطة في الكويت للديمقراطية،. كتاب مفيد جدا لمن يريد ان يزيد
15
+ من معلوماته عن تاريخ الكويت السياسي. حفظ الله الدكتور احمد الخطيب ورزقه الصحة
16
+ والعافية
17
+ - text: الصورة غير الواقعة . سعة الغرفة جدا ممتاز أما دورة المياة صغيرة ومزدحمة بداخل
18
+ .. اثاث قديم والبعض يوجد به إتلاف كما أن دورة المياة تحتاج إلى صيانة دورية
19
+ - text: كان جزء من المطعم يقع في الهواء الطلق كانت أسوأ تجربة مررت بها عندما كنت أجلس
20
+ خارج الفندق لتناول مشروب في المساء أثناء مشاهدة مبارة التشيك مع تركيا في بطولة
21
+ يورو . تلقى السائح الألماني الذي كان يجلس على الطاولة بجانبنا فاتورة تضم تكاليف
22
+ طعام ومشروبات لم يطلبها ولكنها وضعت على طاولته وثمن طعام لم يصل أيضا كان النادل
23
+ غير مبال وهز كتفيه ثم أحضر المدير الذي لم يكن متعاونا بنفس القدر. ثم كانت دهشتنا
24
+ عندما ذهب المدير ليطرق نافذة سيارة الشرطة التي كانت متوقفة خارج منطقة الجلوس لمراقبة
25
+ الحشود التي كانت تشاهد المباراة على شاشة كبيرة في ميدان وينسيسلاس. هناك الآن رجال
26
+ شرطة والمدير والنادل يواجهون هذا الرجل الذي كان مؤدبا وهادئا للغاية لكنه كان مصرا
27
+ على الدفاع عن موقفه. ظل يدعي أنه لم يجلس على الطاولة لفترة طويلة بما يكفي لتناول
28
+ وشرب ما كانوا يطالبونه بالدفع مقابله. كان المشهد مروعا ويحدث على بعد متر من طاولتنا،
29
+ لذا قررنا المغادرة. المكان في حاجة إلى بعض خدمة العملاء كانت المشروبات باهظة الثمن
30
+ للغاية. تجنب هذا المكان. جرب تناول الطعام أو مشروب في نيبوزيزيك في منتصف الطريق
31
+ المائل إلى بيترن هيل الأسعار جميلة ومعقولة.
32
+ - text: الرواية دي اي كلام يتقال عليها يقلل من قيمتها لأنها احسن من اي ريفيو...ببساطة
33
+ خمس نجوم لا تكفي
34
+ - text: مقبول. الموقع قريب من الحرم النبوي. الاستقبال كان سيء جدا، الأثاث قديم جدا
35
+ ، المطعم صغير ومزدحم والقيمة مقابل المال دون المستوىلاأنصح أبدا بالإقامة فيه،
36
+ حيث أن وجدت هناك فنادق أفضل منه وأرخص
37
  inference: true
38
  model-index:
39
+ - name: SetFit with akhooli/Arabic-SBERT-100K
40
  results:
41
  - task:
42
  type: text-classification
 
47
  split: test
48
  metrics:
49
  - type: accuracy
50
+ value: 0.5033333333333333
51
  name: Accuracy
52
  ---
53
 
54
+ # SetFit with akhooli/Arabic-SBERT-100K
55
 
56
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [akhooli/Arabic-SBERT-100K](https://huggingface.co/akhooli/Arabic-SBERT-100K) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
57
 
58
  The model has been trained using an efficient few-shot learning technique that involves:
59
 
 
64
 
65
  ### Model Description
66
  - **Model Type:** SetFit
67
+ - **Sentence Transformer body:** [akhooli/Arabic-SBERT-100K](https://huggingface.co/akhooli/Arabic-SBERT-100K)
68
  - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
69
  - **Maximum Sequence Length:** 512 tokens
70
+ - **Number of Classes:** 3 classes
71
  <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
72
  <!-- - **Language:** Unknown -->
73
  <!-- - **License:** Unknown -->
 
79
  - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
80
 
81
  ### Model Labels
82
+ | Label | Examples |
83
+ |:---------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
84
+ | Positive | <ul><li>'. نجمات. قصة جيدة. لا أدري ما الذي أغضبني أكثر تعامل البشر مع الحيوانات أم تعامل الخنازير مع الحيوانات .. لأنه يبدو لي أن الخنازير كانت بارعة في دور الإنسان أكثر من الإنسان نفسه . لقراءتي عن بعض الثورات مؤخرا رحت أقارن بين الأحداث هنا و هناك يا ترى هل سيكون لجميعها نهاية كهذه ؟ هل سيكون لكل شخص بدوره المذكور نهاية كالتي طالته هنا كذلك ؟'</li><li>'وكأن ما يكتبه قد كتبته بيدي أصبح اأعرف حتى ما ينوي قوله تعجز الكلامات عن وصفه'</li><li>'تقول في روايتها : لا أفقر من امرأة لا ذكريات لها. وأنا أقول لا أفقر من قارئ لا يقرأ لها. ... أعتقد أن أحلام أرادت أن تنتصر المرأه هذه المره حتى على حساب الحب. بنسبه إلي كانت لغة أحلام قوية كعادتها تجيد أختيار الخيوط لكن هذه المره فشل في حياكتها. أظنها أرادتها كنزه أفصبحت جورب. أو أن في كتابها الأخير نسيان أردات أن يطبق هذا على واقع أوراقها وينسى الحب أبطاله'</li></ul> |
85
+ | Mixed | <ul><li>'مناسب للميزانيات المحدودة . قرب الفندق من ديرة ستي سنتر نظيف و مرتب مقارنة بالفنادق اللي بنفس السعر. الاضاءة ضعيفة سواء في الغرف او في الاستقبالالفطور بسيط وطلبات الغرف تقدم بصينية وصحون بلاستيكية'</li><li>'نعيش أياما سوداء يا صديقى إذا كانت لديك فرصة للهجرة أرجوك هاجر ، و إذا كان ابنك أو شقيقك يحلم بالهجرة أرجوك لا تقف فى طريقه ، و إذا كنت بره أساسا أرجوك خليك عندك ؛ فالبلد لن ينصلح حاله قريبا حتى لو تغير النظام ، فالمشكلة الأكبر فى الناس ، الهجرة يا صديقى الهجرة .. الحياة ليست بروفة وستعيش مرة واحدة فحاول أن تعيشها صح .'</li><li>'متعب. أقمت كجزء من مجموعة. لم أنفق مثل تلك النفقات الكثيرة منذ أن تم تطويره والتي تبدو نفقات باهظة في لمح البصر. بدا مكلفا للغاية مقارنة بالوضع الذي كان عليه. وبكلامنا نحن الإنجليز، الفندق نجوم إلى حد كبير وليس مجرد نجوم، ولكنه قديم جدا بالفعل... كانت الغرفة ذات ورق حائط ملطخ والسجاجيد رقيقة والسرير غير مستو ولكن الأغطية والألحفة نظيفة ورائعة . كانت هناك بعض الأمور الغريبة، على سبيل المثال: لم لم تكن هناك مصاعد جاهزة في الطابق الأرضي مطلقا؟ كانت غرفة البخار لا تعمل طوال الأسبوع. لا يتم تقديم الكحول في الردهة بعد الساعة الثانية عشر لكن كان يقدم في النادي الصاخب فى الطابق الثالث. المكان مناسب للعمل ولمشاهدة المناظر بشكل معقول. إذا كنت في رحلة رومانسية إلى هانوي... فلا مجال لذلك'</li></ul> |
86
+ | Negative | <ul><li>'مخيب للأمل. . أصوات أعمال بناء و إزعاج شديد من مطارق و حفر من الصباح الباكر لم نستطع بسببها النوم و الراحة مع عدم تجاوب مسؤول الفندق مع الشكوى و التعامل غير الجيد مع الشكوى'</li><li>'مش سطحية بس الخلاصة ثورات انقلابات قتل قتل قتل كتير. اللى يصحى بدري يمسك الحكم'</li><li>'رواية مملة ، لم أستفد منها شيئا سوى من ناحية الأحداث المتوقعه أغلبها أو حتى من الناحية اللغوية ، لا أنكر أن هناك بعض العبارات الجميلة لكن لم توظف ف المكان ولا الزمن المناسب لذا فقدت روعتها ، يجب على الكاتب أن يكثف القراءة ويعيد ترتيب حساباته ، بالمناسبة هو يمتلك قلم جيد لكن لم يستخدم بشكل جميل .'</li></ul> |
87
 
88
  ## Evaluation
89
 
90
  ### Metrics
91
  | Label | Accuracy |
92
  |:--------|:---------|
93
+ | **all** | 0.5033 |
94
 
95
  ## Uses
96
 
 
110
  # Download from the 🤗 Hub
111
  model = SetFitModel.from_pretrained("akhooli/setfit")
112
  # Run inference
113
+ preds = model("الرواية دي اي كلام يتقال عليها يقلل من قيمتها لأنها احسن من اي ريفيو...ببساطة خمس نجوم لا تكفي")
114
  ```
115
 
116
  <!--
 
142
  ### Training Set Metrics
143
  | Training set | Min | Median | Max |
144
  |:-------------|:----|:-------|:----|
145
+ | Word count | 5 | 38.625 | 127 |
146
 
147
  | Label | Training Sample Count |
148
  |:---------|:----------------------|
149
+ | Negative | 8 |
150
+ | Positive | 8 |
151
+ | Mixed | 8 |
152
 
153
  ### Training Hyperparameters
154
  - batch_size: (16, 16)
 
171
  ### Training Results
172
  | Epoch | Step | Training Loss | Validation Loss |
173
  |:------:|:----:|:-------------:|:---------------:|
174
+ | 0.0417 | 1 | 0.2812 | - |
175
+ | 1.0 | 24 | - | 0.2691 |
176
+ | 2.0 | 48 | - | 0.2961 |
177
+ | 2.0833 | 50 | 0.1176 | - |
178
+ | 3.0 | 72 | - | 0.2998 |
179
+ | 4.0 | 96 | - | 0.2992 |
180
 
181
  ### Framework Versions
182
  - Python: 3.10.12
config.json CHANGED
@@ -1,24 +1,25 @@
1
  {
2
- "_name_or_path": "sentence-transformers/paraphrase-mpnet-base-v2",
3
  "architectures": [
4
- "MPNetModel"
5
  ],
6
  "attention_probs_dropout_prob": 0.1,
7
- "bos_token_id": 0,
8
- "eos_token_id": 2,
9
  "hidden_act": "gelu",
10
  "hidden_dropout_prob": 0.1,
11
  "hidden_size": 768,
12
  "initializer_range": 0.02,
13
  "intermediate_size": 3072,
14
- "layer_norm_eps": 1e-05,
15
- "max_position_embeddings": 514,
16
- "model_type": "mpnet",
17
  "num_attention_heads": 12,
18
  "num_hidden_layers": 12,
19
- "pad_token_id": 1,
20
- "relative_attention_num_buckets": 32,
21
  "torch_dtype": "float32",
22
  "transformers_version": "4.44.2",
23
- "vocab_size": 30527
 
 
24
  }
 
1
  {
2
+ "_name_or_path": "akhooli/Arabic-SBERT-100K",
3
  "architectures": [
4
+ "BertModel"
5
  ],
6
  "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
 
8
  "hidden_act": "gelu",
9
  "hidden_dropout_prob": 0.1,
10
  "hidden_size": 768,
11
  "initializer_range": 0.02,
12
  "intermediate_size": 3072,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
  "num_attention_heads": 12,
17
  "num_hidden_layers": 12,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
  "torch_dtype": "float32",
21
  "transformers_version": "4.44.2",
22
+ "type_vocab_size": 2,
23
+ "use_cache": true,
24
+ "vocab_size": 64000
25
  }
config_setfit.json CHANGED
@@ -1,7 +1,8 @@
1
  {
2
- "normalize_embeddings": false,
3
  "labels": [
4
- "negative",
5
- "positive"
6
- ]
 
 
7
  }
 
1
  {
 
2
  "labels": [
3
+ "Negative",
4
+ "Positive",
5
+ "Mixed"
6
+ ],
7
+ "normalize_embeddings": false
8
  }
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:939a4c45fc4345e64d066390b170c7e39a5382e8fd39d761cabe3ebda1c3e695
3
- size 437967672
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:98a0aefcb06a12c4fb501885a58163601ed4e2f33bb9fb73c3fd654f50489099
3
+ size 540795752
model_head.pkl CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:fdbceeda812053921b6d6b71d59160e00d39ecb2e1ce69c2ca8cb45aaa775f7a
3
- size 7007
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f2d74830c3470ace4002b713cfe716bd092b489f4d5fb39d63d18759ab49fd82
3
+ size 19391
special_tokens_map.json CHANGED
@@ -1,41 +1,27 @@
1
  {
2
- "bos_token": {
3
- "content": "<s>",
4
- "lstrip": false,
5
- "normalized": false,
6
- "rstrip": false,
7
- "single_word": false
8
- },
9
  "cls_token": {
10
- "content": "<s>",
11
- "lstrip": false,
12
- "normalized": false,
13
- "rstrip": false,
14
- "single_word": false
15
- },
16
- "eos_token": {
17
- "content": "</s>",
18
  "lstrip": false,
19
  "normalized": false,
20
  "rstrip": false,
21
  "single_word": false
22
  },
23
  "mask_token": {
24
- "content": "<mask>",
25
- "lstrip": true,
26
  "normalized": false,
27
  "rstrip": false,
28
  "single_word": false
29
  },
30
  "pad_token": {
31
- "content": "<pad>",
32
  "lstrip": false,
33
  "normalized": false,
34
  "rstrip": false,
35
  "single_word": false
36
  },
37
  "sep_token": {
38
- "content": "</s>",
39
  "lstrip": false,
40
  "normalized": false,
41
  "rstrip": false,
 
1
  {
 
 
 
 
 
 
 
2
  "cls_token": {
3
+ "content": "[CLS]",
 
 
 
 
 
 
 
4
  "lstrip": false,
5
  "normalized": false,
6
  "rstrip": false,
7
  "single_word": false
8
  },
9
  "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
  "normalized": false,
13
  "rstrip": false,
14
  "single_word": false
15
  },
16
  "pad_token": {
17
+ "content": "[PAD]",
18
  "lstrip": false,
19
  "normalized": false,
20
  "rstrip": false,
21
  "single_word": false
22
  },
23
  "sep_token": {
24
+ "content": "[SEP]",
25
  "lstrip": false,
26
  "normalized": false,
27
  "rstrip": false,
tokenizer.json CHANGED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json CHANGED
@@ -1,7 +1,7 @@
1
  {
2
  "added_tokens_decoder": {
3
  "0": {
4
- "content": "<s>",
5
  "lstrip": false,
6
  "normalized": false,
7
  "rstrip": false,
@@ -9,7 +9,7 @@
9
  "special": true
10
  },
11
  "1": {
12
- "content": "<pad>",
13
  "lstrip": false,
14
  "normalized": false,
15
  "rstrip": false,
@@ -17,43 +17,77 @@
17
  "special": true
18
  },
19
  "2": {
20
- "content": "</s>",
21
  "lstrip": false,
22
  "normalized": false,
23
  "rstrip": false,
24
  "single_word": false,
25
  "special": true
26
  },
27
- "104": {
28
- "content": "[UNK]",
29
  "lstrip": false,
30
  "normalized": false,
31
  "rstrip": false,
32
  "single_word": false,
33
  "special": true
34
  },
35
- "30526": {
36
- "content": "<mask>",
37
- "lstrip": true,
38
  "normalized": false,
39
  "rstrip": false,
40
  "single_word": false,
41
  "special": true
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
42
  }
43
  },
44
- "bos_token": "<s>",
45
  "clean_up_tokenization_spaces": true,
46
- "cls_token": "<s>",
47
  "do_basic_tokenize": true,
48
- "do_lower_case": true,
49
- "eos_token": "</s>",
50
- "mask_token": "<mask>",
 
51
  "model_max_length": 512,
52
- "never_split": null,
53
- "pad_token": "<pad>",
54
- "sep_token": "</s>",
 
 
 
 
 
 
 
 
55
  "strip_accents": null,
56
  "tokenize_chinese_chars": true,
57
- "tokenizer_class": "MPNetTokenizer",
 
 
58
  "unk_token": "[UNK]"
59
  }
 
1
  {
2
  "added_tokens_decoder": {
3
  "0": {
4
+ "content": "[PAD]",
5
  "lstrip": false,
6
  "normalized": false,
7
  "rstrip": false,
 
9
  "special": true
10
  },
11
  "1": {
12
+ "content": "[UNK]",
13
  "lstrip": false,
14
  "normalized": false,
15
  "rstrip": false,
 
17
  "special": true
18
  },
19
  "2": {
20
+ "content": "[CLS]",
21
  "lstrip": false,
22
  "normalized": false,
23
  "rstrip": false,
24
  "single_word": false,
25
  "special": true
26
  },
27
+ "3": {
28
+ "content": "[SEP]",
29
  "lstrip": false,
30
  "normalized": false,
31
  "rstrip": false,
32
  "single_word": false,
33
  "special": true
34
  },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
  "normalized": false,
39
  "rstrip": false,
40
  "single_word": false,
41
  "special": true
42
+ },
43
+ "5": {
44
+ "content": "[رابط]",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": true,
49
+ "special": true
50
+ },
51
+ "6": {
52
+ "content": "[بريد]",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": true,
57
+ "special": true
58
+ },
59
+ "7": {
60
+ "content": "[مستخدم]",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": true,
65
+ "special": true
66
  }
67
  },
 
68
  "clean_up_tokenization_spaces": true,
69
+ "cls_token": "[CLS]",
70
  "do_basic_tokenize": true,
71
+ "do_lower_case": false,
72
+ "mask_token": "[MASK]",
73
+ "max_len": 512,
74
+ "max_length": 512,
75
  "model_max_length": 512,
76
+ "never_split": [
77
+ "[بريد]",
78
+ "[مستخدم]",
79
+ "[رابط]"
80
+ ],
81
+ "pad_to_multiple_of": null,
82
+ "pad_token": "[PAD]",
83
+ "pad_token_type_id": 0,
84
+ "padding_side": "right",
85
+ "sep_token": "[SEP]",
86
+ "stride": 0,
87
  "strip_accents": null,
88
  "tokenize_chinese_chars": true,
89
+ "tokenizer_class": "BertTokenizer",
90
+ "truncation_side": "right",
91
+ "truncation_strategy": "longest_first",
92
  "unk_token": "[UNK]"
93
  }
vocab.txt CHANGED
The diff for this file is too large to render. See raw diff