|
--- |
|
base_model: sentence-transformers/distiluse-base-multilingual-cased-v1 |
|
library_name: setfit |
|
metrics: |
|
- accuracy |
|
pipeline_tag: text-classification |
|
tags: |
|
- setfit |
|
- sentence-transformers |
|
- text-classification |
|
- generated_from_setfit_trainer |
|
widget: |
|
- text: كان جزء من المطعم يقع في الهواء الطلق كانت أسوأ تجربة مررت بها عندما كنت أجلس |
|
خارج الفندق لتناول مشروب في المساء أثناء مشاهدة مبارة التشيك مع تركيا في بطولة |
|
يورو . تلقى السائح الألماني الذي كان يجلس على الطاولة بجانبنا فاتورة تضم تكاليف |
|
طعام ومشروبات لم يطلبها ولكنها وضعت على طاولته وثمن طعام لم يصل أيضا كان النادل |
|
غير مبال وهز كتفيه ثم أحضر المدير الذي لم يكن متعاونا بنفس القدر. ثم كانت دهشتنا |
|
عندما ذهب المدير ليطرق نافذة سيارة الشرطة التي كانت متوقفة خارج منطقة الجلوس لمراقبة |
|
الحشود التي كانت تشاهد المباراة على شاشة كبيرة في ميدان وينسيسلاس. هناك الآن رجال |
|
شرطة والمدير والنادل يواجهون هذا الرجل الذي كان مؤدبا وهادئا للغاية لكنه كان مصرا |
|
على الدفاع عن موقفه. ظل يدعي أنه لم يجلس على الطاولة لفترة طويلة بما يكفي لتناول |
|
وشرب ما كانوا يطالبونه بالدفع مقابله. كان المشهد مروعا ويحدث على بعد متر من طاولتنا، |
|
لذا قررنا المغادرة. المكان في حاجة إلى بعض خدمة العملاء كانت المشروبات باهظة الثمن |
|
للغاية. تجنب هذا المكان. جرب تناول الطعام أو مشروب في نيبوزيزيك في منتصف الطريق |
|
المائل إلى بيترن هيل الأسعار جميلة ومعقولة. |
|
- text: الرواية دي اي كلام يتقال عليها يقلل من قيمتها لأنها احسن من اي ريفيو...ببساطة |
|
خمس نجوم لا تكفي |
|
- text: مقبول. الموقع قريب من الحرم النبوي. الاستقبال كان سيء جدا، الأثاث قديم جدا |
|
، المطعم صغير ومزدحم والقيمة مقابل المال دون المستوىلاأنصح أبدا بالإقامة فيه، |
|
حيث أن وجدت هناك فنادق أفضل منه وأرخص |
|
- text: أكثر من كتاب .. أكثر من حياة. الفهم التجديدي ، والاختصار الشمولي العميق ، |
|
واللغة السلسة الواضحة ، كل هذه المزايا تضع الكتاب موضع استحقاق القراءة أكثر من |
|
مرة .. |
|
- text: مكان راحه البال . المكان نظيف جدا ومريح جدا. عدم وجود مكان للباركن السياره |
|
فالفندق |
|
inference: true |
|
model-index: |
|
- name: SetFit with sentence-transformers/distiluse-base-multilingual-cased-v1 |
|
results: |
|
- task: |
|
type: text-classification |
|
name: Text Classification |
|
dataset: |
|
name: Unknown |
|
type: unknown |
|
split: test |
|
metrics: |
|
- type: accuracy |
|
value: 0.45696969696969697 |
|
name: Accuracy |
|
--- |
|
|
|
# SetFit with sentence-transformers/distiluse-base-multilingual-cased-v1 |
|
|
|
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/distiluse-base-multilingual-cased-v1](https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v1) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. |
|
|
|
The model has been trained using an efficient few-shot learning technique that involves: |
|
|
|
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. |
|
2. Training a classification head with features from the fine-tuned Sentence Transformer. |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
- **Model Type:** SetFit |
|
- **Sentence Transformer body:** [sentence-transformers/distiluse-base-multilingual-cased-v1](https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v1) |
|
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance |
|
- **Maximum Sequence Length:** 128 tokens |
|
- **Number of Classes:** 3 classes |
|
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) --> |
|
<!-- - **Language:** Unknown --> |
|
<!-- - **License:** Unknown --> |
|
|
|
### Model Sources |
|
|
|
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) |
|
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) |
|
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) |
|
|
|
### Model Labels |
|
| Label | Examples | |
|
|:---------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| |
|
| Positive | <ul><li>'. نجمات. قصة جيدة. لا أدري ما الذي أغضبني أكثر تعامل البشر مع الحيوانات أم تعامل الخنازير مع الحيوانات .. لأنه يبدو لي أن الخنازير كانت بارعة في دور الإنسان أكثر من الإنسان نفسه . لقراءتي عن بعض الثورات مؤخرا رحت أقارن بين الأحداث هنا و هناك يا ترى هل سيكون لجميعها نهاية كهذه ؟ هل سيكون لكل شخص بدوره المذكور نهاية كالتي طالته هنا كذلك ؟'</li><li>'وكأن ما يكتبه قد كتبته بيدي أصبح اأعرف حتى ما ينوي قوله تعجز الكلامات عن وصفه'</li><li>'تقول في روايتها : لا أفقر من امرأة لا ذكريات لها. وأنا أقول لا أفقر من قارئ لا يقرأ لها. ... أعتقد أن أحلام أرادت أن تنتصر المرأه هذه المره حتى على حساب الحب. بنسبه إلي كانت لغة أحلام قوية كعادتها تجيد أختيار الخيوط لكن هذه المره فشل في حياكتها. أظنها أرادتها كنزه أفصبحت جورب. أو أن في كتابها الأخير نسيان أردات أن يطبق هذا على واقع أوراقها وينسى الحب أبطاله'</li></ul> | |
|
| Mixed | <ul><li>'مناسب للميزانيات المحدودة . قرب الفندق من ديرة ستي سنتر نظيف و مرتب مقارنة بالفنادق اللي بنفس السعر. الاضاءة ضعيفة سواء في الغرف او في الاستقبالالفطور بسيط وطلبات الغرف تقدم بصينية وصحون بلاستيكية'</li><li>'نعيش أياما سوداء يا صديقى إذا كانت لديك فرصة للهجرة أرجوك هاجر ، و إذا كان ابنك أو شقيقك يحلم بالهجرة أرجوك لا تقف فى طريقه ، و إذا كنت بره أساسا أرجوك خليك عندك ؛ فالبلد لن ينصلح حاله قريبا حتى لو تغير النظام ، فالمشكلة الأكبر فى الناس ، الهجرة يا صديقى الهجرة .. الحياة ليست بروفة وستعيش مرة واحدة فحاول أن تعيشها صح .'</li><li>'متعب. أقمت كجزء من مجموعة. لم أنفق مثل تلك النفقات الكثيرة منذ أن تم تطويره والتي تبدو نفقات باهظة في لمح البصر. بدا مكلفا للغاية مقارنة بالوضع الذي كان عليه. وبكلامنا نحن الإنجليز، الفندق نجوم إلى حد كبير وليس مجرد نجوم، ولكنه قديم جدا بالفعل... كانت الغرفة ذات ورق حائط ملطخ والسجاجيد رقيقة والسرير غير مستو ولكن الأغطية والألحفة نظيفة ورائعة . كانت هناك بعض الأمور الغريبة، على سبيل المثال: لم لم تكن هناك مصاعد جاهزة في الطابق الأرضي مطلقا؟ كانت غرفة البخار لا تعمل طوال الأسبوع. لا يتم تقديم الكحول في الردهة بعد الساعة الثانية عشر لكن كان يقدم في النادي الصاخب فى الطابق الثالث. المكان مناسب للعمل ولمشاهدة المناظر بشكل معقول. إذا كنت في رحلة رومانسية إلى هانوي... فلا مجال لذلك'</li></ul> | |
|
| Negative | <ul><li>'مخيب للأمل. . أصوات أعمال بناء و إزعاج شديد من مطارق و حفر من الصباح الباكر لم نستطع بسببها النوم و الراحة مع عدم تجاوب مسؤول الفندق مع الشكوى و التعامل غير الجيد مع الشكوى'</li><li>'مش سطحية بس الخلاصة ثورات انقلابات قتل قتل قتل كتير. اللى يصحى بدري يمسك الحكم'</li><li>'رواية مملة ، لم أستفد منها شيئا سوى من ناحية الأحداث المتوقعه أغلبها أو حتى من الناحية اللغوية ، لا أنكر أن هناك بعض العبارات الجميلة لكن لم توظف ف المكان ولا الزمن المناسب لذا فقدت روعتها ، يجب على الكاتب أن يكثف القراءة ويعيد ترتيب حساباته ، بالمناسبة هو يمتلك قلم جيد لكن لم يستخدم بشكل جميل .'</li></ul> | |
|
|
|
## Evaluation |
|
|
|
### Metrics |
|
| Label | Accuracy | |
|
|:--------|:---------| |
|
| **all** | 0.4570 | |
|
|
|
## Uses |
|
|
|
### Direct Use for Inference |
|
|
|
First install the SetFit library: |
|
|
|
```bash |
|
pip install setfit |
|
``` |
|
|
|
Then you can load this model and run inference. |
|
|
|
```python |
|
from setfit import SetFitModel |
|
|
|
# Download from the 🤗 Hub |
|
model = SetFitModel.from_pretrained("akhooli/setfit") |
|
# Run inference |
|
preds = model("مكان راحه البال . المكان نظيف جدا ومريح جدا. عدم وجود مكان للباركن السياره فالفندق") |
|
``` |
|
|
|
<!-- |
|
### Downstream Use |
|
|
|
*List how someone could finetune this model on their own dataset.* |
|
--> |
|
|
|
<!-- |
|
### Out-of-Scope Use |
|
|
|
*List how the model may foreseeably be misused and address what users ought not to do with the model.* |
|
--> |
|
|
|
<!-- |
|
## Bias, Risks and Limitations |
|
|
|
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* |
|
--> |
|
|
|
<!-- |
|
### Recommendations |
|
|
|
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* |
|
--> |
|
|
|
## Training Details |
|
|
|
### Training Set Metrics |
|
| Training set | Min | Median | Max | |
|
|:-------------|:----|:-------|:----| |
|
| Word count | 5 | 38.625 | 127 | |
|
|
|
| Label | Training Sample Count | |
|
|:---------|:----------------------| |
|
| Mixed | 8 | |
|
| Negative | 8 | |
|
| Positive | 8 | |
|
|
|
### Training Hyperparameters |
|
- batch_size: (32, 32) |
|
- num_epochs: (4, 4) |
|
- max_steps: -1 |
|
- sampling_strategy: oversampling |
|
- body_learning_rate: (2e-05, 1e-05) |
|
- head_learning_rate: 0.01 |
|
- loss: CosineSimilarityLoss |
|
- distance_metric: cosine_distance |
|
- margin: 0.25 |
|
- end_to_end: False |
|
- use_amp: False |
|
- warmup_proportion: 0.1 |
|
- l2_weight: 0.01 |
|
- seed: 42 |
|
- eval_max_steps: -1 |
|
- load_best_model_at_end: True |
|
|
|
### Training Results |
|
| Epoch | Step | Training Loss | Validation Loss | |
|
|:------:|:----:|:-------------:|:---------------:| |
|
| 0.1667 | 1 | 0.3001 | - | |
|
| 1.0 | 6 | - | 0.2727 | |
|
| 2.0 | 12 | - | 0.2697 | |
|
| 3.0 | 18 | - | 0.2861 | |
|
| 4.0 | 24 | - | 0.2927 | |
|
|
|
### Framework Versions |
|
- Python: 3.10.14 |
|
- SetFit: 1.2.0.dev0 |
|
- Sentence Transformers: 3.1.1 |
|
- Transformers: 4.45.1 |
|
- PyTorch: 2.4.0 |
|
- Datasets: 3.0.1 |
|
- Tokenizers: 0.20.0 |
|
|
|
## Citation |
|
|
|
### BibTeX |
|
```bibtex |
|
@article{https://doi.org/10.48550/arxiv.2209.11055, |
|
doi = {10.48550/ARXIV.2209.11055}, |
|
url = {https://arxiv.org/abs/2209.11055}, |
|
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, |
|
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, |
|
title = {Efficient Few-Shot Learning Without Prompts}, |
|
publisher = {arXiv}, |
|
year = {2022}, |
|
copyright = {Creative Commons Attribution 4.0 International} |
|
} |
|
``` |
|
|
|
<!-- |
|
## Glossary |
|
|
|
*Clearly define terms in order to be accessible across audiences.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Authors |
|
|
|
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Contact |
|
|
|
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* |
|
--> |