File size: 14,488 Bytes
638842e |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 |
---
base_model: mini1013/master_domain
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 지벤 안전화 ZB-176 ZIBEN 절연안전화, 벨크로타입 270 삼진안전
- text: 성인 소가죽 남성 라틴 댄스 신발 교사 코치 댄스화 245_G 타입 황금망또직구야
- text: 아디다스 갤럭시5 런닝화 운동화 워킹화 조깅화 러닝화 신발 FW5717 6. 니짜 로우 (흰검)_265 페라토도
- text: 신사야 소가죽 윙팁 옥스포드 남성구두 SSY3008 브라운_270 신사야
- text: '[프로스펙스 본사] 파워소닉 513 260 (주)엘에스네트웍스'
inference: true
model-index:
- name: SetFit with mini1013/master_domain
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: metric
value: 0.5946474175222807
name: Metric
---
# SetFit with mini1013/master_domain
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 13 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 10.0 | <ul><li>'밸롭 워킹화 티바트 2.0 그라데이션 두족 구매시 129,000원 티바트2.0 그라데이션 오프화이트245 (주)지티에스글로벌'</li><li>'[이월상품]아큘레틱 아쿠아슈즈 균일가 물놀이 신발 콜드/커브/웨이브/스트라이프/휴 워터슈즈 이월상품_2)커브 라임200 주식회사 지브이코퍼레이션'</li><li>'나이키 에어맥스 엑시스 AA2146-100 재고 소진시 자동취소됩니다 에스엠피(SMP)컴퍼니'</li></ul> |
| 4.0 | <ul><li>'헌터형 레인부츠 남자 여자 공용 장화 부츠 슈즈 신발 블랙 위장 따뜻한 콤비네이션 + 탈착식 양말_남성_46 모두(modoo)'</li><li>'BFL 다이얼 패딩 방한화 미들 방한부츠 WA40BK-M19 BFL4019-블랙-250 akmall'</li><li>'1049461 SOREL(소렐) 1964 팩 나일론 NM3487 011(BlackAncient Fossil) 1_one option_27.0cm 도쿄스트릿'</li></ul> |
| 7.0 | <ul><li>'[스포디노]어번_세련된 디자인의 다용도 슬리퍼 네이비_230(36호) (주)씨제이이엔엠'</li><li>'디스커버리 (여성) 뮬리 슬라이드 (DXSH3322N) 베이지(BGS)_235 롯데백화점2관'</li><li>'남녀공용 키높이 신발 실내화 슬라이드 벨크로 이중쿠션 슬리퍼 PP1558 그레이 300 (주) 준인더스트리'</li></ul> |
| 3.0 | <ul><li>'[미소페](강남점) 남성 보트슈즈 022417701 1cm 2color 블랙_260 신세계백화점'</li><li>'23SS 톰브라운 로퍼 MFD251A05584 001 Black 8M 주식회사 구하다'</li><li>'[락포트](강남점)남성화 트루워크제로 2 보트 슈 CJ5105 260 신세계백화점'</li></ul> |
| 1.0 | <ul><li>'cm102 남성효도화 건강신발 남성간호화 가죽 컴포트화 안경화이트_280 미래로'</li><li>'스티코 미끄럼방지 주방화 NEC-03 방수화 위생화 조리화 간호화 주방신발 백색_270 스티코 대덕대리점'</li><li>'지벤양말제공 Ziben ZB-197W 다이얼 기모 방한 안전화/겨울작업화 255mm 바이플렉스(BUYFLEX)'</li></ul> |
| 9.0 | <ul><li>'털슬리퍼 여자 보온 가정용 겨울 사무실 남성 실외 방한 남자 실내 여성 39. 후저강아지 그레이_42-43 41-42피트에 적합 범베스트'</li><li>'남자 학교 남성용 여름 신발 빅 사이즈 캐주얼 나막신 홈 입학식 뛰어난쿠션감실내화 Blue 7927_6.5 리마119'</li><li>'커플 린넨 마 왕골 슬리퍼 왕골 사무실화 라탄 여름 실내화 남성 여성 층간소음 거실화 MinSellAmount 서연몰A'</li></ul> |
| 0.0 | <ul><li>'판매 NO.1 남화 BEST 옥스퍼드/로퍼/정장화 깜짝가 7종 선택05_브라운 HA21001 C_541_280MM 롯데 아이몰'</li><li>'슬립온 구두 뮬 남성블로퍼 가죽 로퍼 43_그레이D190사이즈가작아서한사이즈더큰걸로 보따리무역상사'</li><li>'[금강제화](본점) 리갈 스트레이트팁 키높이 정장화 REGOXC7830K36 240 신세계백화점'</li></ul> |
| 2.0 | <ul><li>'남녀공용 안감털 패딩 부츠 1P 겨울 보온 방한 신발 여성 와인 245 가온'</li><li>'272 털운동화 털신 방한운동화 겨울신발 미끄럼방지 네이비_260 지에이치온'</li><li>'UGG 공식스토어 (M)23FW 타스만칼리웨이브TASMAN CALI WAVE(1653303008) 250(US7)-COGS 스니커링'</li></ul> |
| 6.0 | <ul><li>'반스 올드스쿨 VN000D3HY28 블랙 235 대박상회'</li><li>'타미힐피거 커플 신발 판도라 화이트 네이비 블랙 데일리 프리미엄 브랜드 여름 슬랙스 정장 운동화 24) REXIN-WHI01_280 (US 10) 제이케이슈즈'</li><li>'반스 VANS 올드스쿨 색상 (껌)블랙화이트 216321 235 K트렌디'</li></ul> |
| 8.0 | <ul><li>'스케쳐스 고워크 아치핏 아웃도어 남성 운동화 워킹화 SP0MWCDY081 (모델착화샷) 블랙_270 스케쳐스 청주점'</li><li>'키즈 체커보드 Slip-on 슬립온 VN000ZBUEO1 US12(175) 롯데백화점2관_'</li><li>'반스 운동화 신발 슬립온 스니커즈 커플 클래식 컬러 띠어리 체커보드 다즐링 블루 100875 225 제이유통공식'</li></ul> |
| 12.0 | <ul><li>'DR.MARTENS 더비 구두 추가생산 1461 - 3 EYE GIBSON NAPPA (11838001) (1461 나파) Free_UK 9 (280㎜) 블루웨이브'</li><li>'끈없는웰트화2 VIDW-SS1141 블랙255 신사유통'</li><li>'VIDW-SS1141 끈없는웰트화2 브라운260 제이에프'</li></ul> |
| 11.0 | <ul><li>'스웨이드 발목부츠 워커 데일리슈즈 캐주얼 패션슈즈 블랙_260mm 골드스마일'</li><li>'남자 따뜻한 털 부츠 워커 겨울 남성워커 작업화 02 더랩GP002_블랙_250 틱앤톡'</li><li>'남성 남자부츠 ZSAUAN 남성용 빅 사이즈 영국 포인트 팀버 소가죽신발워커 Red_44 리마103'</li></ul> |
| 5.0 | <ul><li>'토트넘/파리생제르맹 겨울샌들/겨울슬리퍼 방한화 패딩 슬립온 45_에스더버니리본슬리퍼_핑크_240 에버라스트슈즈'</li><li>'[현대백화점][크록스] 바야 라인드 클로그 화이트 205969-11H 화이트/라이트 그레이/M6W8(250) (주)현대백화점'</li><li>'로드워크 브랜드 24SS 캐주얼 슬리퍼 샌들 02_RW여성데일리샌들_블랙250 GSSHOP_'</li></ul> |
## Evaluation
### Metrics
| Label | Metric |
|:--------|:-------|
| **all** | 0.5946 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_ac1")
# Run inference
preds = model("[프로스펙스 본사] 파워소닉 513 260 (주)엘에스네트웍스")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:--------|:----|
| Word count | 3 | 10.5062 | 24 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 50 |
| 1.0 | 50 |
| 2.0 | 50 |
| 3.0 | 50 |
| 4.0 | 50 |
| 5.0 | 50 |
| 6.0 | 50 |
| 7.0 | 50 |
| 8.0 | 50 |
| 9.0 | 50 |
| 10.0 | 50 |
| 11.0 | 50 |
| 12.0 | 50 |
### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (20, 20)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 40
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0098 | 1 | 0.4275 | - |
| 0.4902 | 50 | 0.3352 | - |
| 0.9804 | 100 | 0.2575 | - |
| 1.4706 | 150 | 0.1047 | - |
| 1.9608 | 200 | 0.0551 | - |
| 2.4510 | 250 | 0.0236 | - |
| 2.9412 | 300 | 0.0234 | - |
| 3.4314 | 350 | 0.0063 | - |
| 3.9216 | 400 | 0.0041 | - |
| 4.4118 | 450 | 0.0058 | - |
| 4.9020 | 500 | 0.0015 | - |
| 5.3922 | 550 | 0.0005 | - |
| 5.8824 | 600 | 0.0002 | - |
| 6.3725 | 650 | 0.0002 | - |
| 6.8627 | 700 | 0.0002 | - |
| 7.3529 | 750 | 0.0002 | - |
| 7.8431 | 800 | 0.0001 | - |
| 8.3333 | 850 | 0.0001 | - |
| 8.8235 | 900 | 0.0001 | - |
| 9.3137 | 950 | 0.0001 | - |
| 9.8039 | 1000 | 0.0001 | - |
| 10.2941 | 1050 | 0.0001 | - |
| 10.7843 | 1100 | 0.0001 | - |
| 11.2745 | 1150 | 0.0001 | - |
| 11.7647 | 1200 | 0.0001 | - |
| 12.2549 | 1250 | 0.0001 | - |
| 12.7451 | 1300 | 0.0001 | - |
| 13.2353 | 1350 | 0.0001 | - |
| 13.7255 | 1400 | 0.0001 | - |
| 14.2157 | 1450 | 0.0001 | - |
| 14.7059 | 1500 | 0.0001 | - |
| 15.1961 | 1550 | 0.0001 | - |
| 15.6863 | 1600 | 0.0001 | - |
| 16.1765 | 1650 | 0.0001 | - |
| 16.6667 | 1700 | 0.0001 | - |
| 17.1569 | 1750 | 0.0001 | - |
| 17.6471 | 1800 | 0.0001 | - |
| 18.1373 | 1850 | 0.0001 | - |
| 18.6275 | 1900 | 0.0001 | - |
| 19.1176 | 1950 | 0.0 | - |
| 19.6078 | 2000 | 0.0001 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.46.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |