--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: Denn das neue Heizungsverbotsgesetz wurde von Leuten in Habecks Ministerium geschrieben, die lediglich das Ziel der Klimaneutralität vor Augen hatten, ohne Rücksicht auf die Denkweise und die Möglichkeiten von Vermietern. Tatsächlich ist das neue Gesetz ein Schock für Leute für mich. Wir haben da beispielsweise ein 105 m² kleines Haus von 1928, das auf einem 551 m² großen Grundstück steht. Das Haus wurde immer wieder erneuert, beim letzten Mieterwechsel für eine niedrige, fünfstellige Summe. In den 60er-Jahren, bevor meine Eltern es gekauft haben, wurden noch die obigen Glasbausteine verbaut. Die kann man energetisch überhaupt nicht sanieren, und momentan macht auch noch die verbaute Gasheizung Probleme. Sprich, wir wären ein Bilderbuchbeispiel für jenen Totalumbau, den Herr Habeck und das - text: 'Wir haben im Handelsblatt Morning Briefing gefragt: "Welche Frage hätten Sie gerne von Bundesverkehrsminister Volker Wissing beantwortet" und abstimmen lassen. Hier ist Ihre Frage und die Antwort des Ministers: "Wann kommt das Tempolimit auf Autobahnen?" "Das ist ein Thema, das die Menschen umtreibt, aber das löst die Probleme im Mobilitätssektor, vor allem im Pkw-Bereich, nicht. Es ist ein ganz kleines Thema, auch wenn es ein emotionales ist. Ich setze mehr auf die Nutzung von modernen Verkehrsleitsystemen, von digitaler Steuerung unserer Verkehrssysteme. Ich glaube, dass wir bei der Infrastrukturnutzung künftig besser werden müssen. Wir müssen nicht nur an den Ausbau der Infrastruktur denken, sondern auch die vorhandene intelligenter nutzen können. Und dann wird sich diese Frage relativieren, weil wir durch eine intelligente, digital gesteuerte Verkehrslenkung besser CO2 einsparen können als durch das aus der analogen Welt kommende Tempolimit."' - text: Mit scharfen Attacken auf die Koalitionspartner im Bund hat Grünen-Chef Omid Nouripour für stärkere Anstrengungen beim Klimaschutz im Verkehrsbereich geworben. Dort müsse 14 Mal mehr geschehen, sagte er am Samstag beim Landesparteitag der Grünen in Hamburg. "Der Verkehrsbereich ist der Sektor, der am meisten machen muss." Trotz Ablehnung der FDP müsse alles dafür getan werden, "dass es ein Tempolimit gibt". Auch verstehe er nicht, warum weiter Autobahnen gebaut werden müssten. - text: 'Fans und Gegner des Automobils stehen sich zunehmend unversöhnlich gegenüber: Der Zwist über den Ausbau von Autobahnen und ein Tempolimit könnte sogar die Ampelkoalition sprengen. Die SPIEGEL-Titelgeschichte.' - text: 'Selbst wenn das hier und da zutrifft: Niemand wird daran gehindert, auch ohne staatliches Handeln das Richtige zu tun. So wie man auf der Autobahn auch ohne generelles Tempolimit zurückhaltend und verantwortungsvoll fahren darf, kann man sich im Heizungskeller Gedanken über die Zukunft machen – selbst wenn man Robert Habeck nicht leiden kann. Zum Beispiel darf man sich auch heute schon eine Wärmepumpe einbauen.' metrics: - accuracy pipeline_tag: text-classification library_name: setfit inference: true base_model: sentence-transformers/distiluse-base-multilingual-cased-v1 model-index: - name: SetFit with sentence-transformers/distiluse-base-multilingual-cased-v1 results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 0.45454545454545453 name: Accuracy --- # SetFit with sentence-transformers/distiluse-base-multilingual-cased-v1 This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/distiluse-base-multilingual-cased-v1](https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v1) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [sentence-transformers/distiluse-base-multilingual-cased-v1](https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v1) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 128 tokens - **Number of Classes:** 3 classes ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:-----------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | opposed | | | supportive | | | neutral | | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 0.4545 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the 🤗 Hub model = SetFitModel.from_pretrained("cbpuschmann/distiluse-base-multilingual-cased-klimacoder_v0.9") # Run inference preds = model("Fans und Gegner des Automobils stehen sich zunehmend unversöhnlich gegenüber: Der Zwist über den Ausbau von Autobahnen und ein Tempolimit könnte sogar die Ampelkoalition sprengen. Die SPIEGEL-Titelgeschichte.") ``` ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:--------|:----| | Word count | 17 | 70.4091 | 231 | | Label | Training Sample Count | |:-----------|:----------------------| | neutral | 59 | | opposed | 55 | | supportive | 62 | ### Training Hyperparameters - batch_size: (32, 32) - num_epochs: (1, 1) - max_steps: -1 - sampling_strategy: oversampling - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:------:|:----:|:-------------:|:---------------:| | 0.0016 | 1 | 0.2815 | - | | 0.0775 | 50 | 0.2603 | - | | 0.1550 | 100 | 0.2237 | - | | 0.2326 | 150 | 0.095 | - | | 0.3101 | 200 | 0.015 | - | | 0.3876 | 250 | 0.0083 | - | | 0.4651 | 300 | 0.0069 | - | | 0.5426 | 350 | 0.0056 | - | | 0.6202 | 400 | 0.0079 | - | | 0.6977 | 450 | 0.0027 | - | | 0.7752 | 500 | 0.0064 | - | | 0.8527 | 550 | 0.005 | - | | 0.9302 | 600 | 0.0034 | - | ### Framework Versions - Python: 3.10.12 - SetFit: 1.1.0 - Sentence Transformers: 3.3.1 - Transformers: 4.42.2 - PyTorch: 2.5.1+cu121 - Datasets: 3.2.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ```