SentenceTransformer based on BAAI/bge-m3
This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: BAAI/bge-m3
- Maximum Sequence Length: 1024 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("seongil-dn/bge-m3-kor-retrieval-451949-bs64-book")
# Run inference
sentences = [
'실제적 발달 수준과 잠재적 발단 수준 사이를 역동적인 공간으로 이야기하는 영역은 뭐야?',
'하브루타에 임하는 학생들의 태도는 다양하다. 기본적인 학습에 대한 참여율에 따라 상당한 차이를 보인다. 앞에서 언급한 인재시교에 다다를 때까지 기다려주고 관심가져주며, 칭찬과 극려의 말로 지지 할 수 있어야 한다. 비고츠키(Vygotsky)는 근접 발달영역(the zone of proximal development: ZPD)을“독자적으로 문제를 해결함으로써 결정되는 실제적 발달 수준과 성인의 안내나 보다 능력 있는 또래들과 협동하여 문제를 해결함으로써 결정되는 잠재적 발달 수준 간의 거리”로 규정한다. 근접발달 영역(the zone of proximal development)은 실제적 발달 수준(actualdevelopmental level)과 잠재적 발달수준(potential developmental level)사이를 역동적인 공간으로 이야기 한다. 즉 하브루타는 소속한 학습자(친구) 상호작용을 통하여 잠재적 발달수준(potential developmental level)까지 도달하는 것이다. 이러한 작용에 꼭 필요한 것 중 하나는 학습자가 수업에 임하는 태도이다. 즉 학습자의 동기부여를 어떻게 불러일으킬 수 있느냐가 관권이다.',
'세 번째는 비공식적 및 공식적 지원 관점으로 아동기를 역동적인 관계의 복합체로 인식하며, 역동적인 상호관계는 만족스럽고 성공적인 아동기에 필수요소이다. 이러한 상호관계의 범위는 아동 양육과 보호의 주 제공자인 부모에서부터 아동 권리를 최종적으로 보장하는 역할을 하는 국가에까지 이른다. 아동에게 필수적인 지원과 서비스는 가족의 사회 관계망 및 가족과 지역사회를 통한 비공식적 지원이나 제 3섹터 및 영리 부문 및 국가와 기관들을 통한 공식적 지원으로 전달된다. 비공식적 및 공식적 지원은 아동이 필요로 하고 혜택을 받을 수 있는 지원과 서비스를 가능하게 하는 전달자 역할을 한다. 이러한 ‘사회적 자본’을 지원하는 것이 국가 아동 전략의 핵심 주제이다. 이렇게 다양하고 서로 상호작용하는 지원의 원천으로부터 아동은 앞서 말한 9개의 발달 영역에서 성장하기 위한 도움을 받는다. 모든 아동은 좋은 교육과 양질의 의료 서비스에 대한 접근권 등 기본적인 지원과 서비스를 필요로 한다. 일부 아동은 빈곤이나 장애, 소수 인종 및 문화 집단, 양육과 보호의 필요성, 비행 및 자해 행동 등을 이유로 추가적인 지원과 서비스를 필요로 한다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 64learning_rate
: 3e-05num_train_epochs
: 1warmup_ratio
: 0.05fp16
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 64per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 3e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.05warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Truedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseeval_use_gather_object
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss |
---|---|---|
0.0037 | 1 | 0.9187 |
0.0075 | 2 | 0.9261 |
0.0112 | 3 | 0.9408 |
0.0150 | 4 | 0.8735 |
0.0187 | 5 | 0.832 |
0.0225 | 6 | 0.8029 |
0.0262 | 7 | 0.7184 |
0.0300 | 8 | 0.7389 |
0.0337 | 9 | 0.6603 |
0.0375 | 10 | 0.5703 |
0.0412 | 11 | 0.5521 |
0.0449 | 12 | 0.5774 |
0.0487 | 13 | 0.563 |
0.0524 | 14 | 0.521 |
0.0562 | 15 | 0.5215 |
0.0599 | 16 | 0.4805 |
0.0637 | 17 | 0.4593 |
0.0674 | 18 | 0.4377 |
0.0712 | 19 | 0.4333 |
0.0749 | 20 | 0.4386 |
0.0787 | 21 | 0.3508 |
0.0824 | 22 | 0.3388 |
0.0861 | 23 | 0.3798 |
0.0899 | 24 | 0.3716 |
0.0936 | 25 | 0.3507 |
0.0974 | 26 | 0.3955 |
0.1011 | 27 | 0.3358 |
0.1049 | 28 | 0.3422 |
0.1086 | 29 | 0.3171 |
0.1124 | 30 | 0.3371 |
0.1161 | 31 | 0.3049 |
0.1199 | 32 | 0.3287 |
0.1236 | 33 | 0.3073 |
0.1273 | 34 | 0.2999 |
0.1311 | 35 | 0.2696 |
0.1348 | 36 | 0.3207 |
0.1386 | 37 | 0.2792 |
0.1423 | 38 | 0.2771 |
0.1461 | 39 | 0.2502 |
0.1498 | 40 | 0.2641 |
0.1536 | 41 | 0.283 |
0.1573 | 42 | 0.2891 |
0.1610 | 43 | 0.2744 |
0.1648 | 44 | 0.278 |
0.1685 | 45 | 0.2841 |
0.1723 | 46 | 0.3048 |
0.1760 | 47 | 0.2709 |
0.1798 | 48 | 0.3047 |
0.1835 | 49 | 0.2823 |
0.1873 | 50 | 0.2291 |
0.1910 | 51 | 0.2614 |
0.1948 | 52 | 0.2598 |
0.1985 | 53 | 0.2767 |
0.2022 | 54 | 0.2461 |
0.2060 | 55 | 0.2723 |
0.2097 | 56 | 0.2184 |
0.2135 | 57 | 0.2644 |
0.2172 | 58 | 0.2436 |
0.2210 | 59 | 0.247 |
0.2247 | 60 | 0.2651 |
0.2285 | 61 | 0.26 |
0.2322 | 62 | 0.2497 |
0.2360 | 63 | 0.2497 |
0.2397 | 64 | 0.2779 |
0.2434 | 65 | 0.2583 |
0.2472 | 66 | 0.2435 |
0.2509 | 67 | 0.2591 |
0.2547 | 68 | 0.2419 |
0.2584 | 69 | 0.2596 |
0.2622 | 70 | 0.237 |
0.2659 | 71 | 0.2358 |
0.2697 | 72 | 0.2765 |
0.2734 | 73 | 0.2581 |
0.2772 | 74 | 0.2582 |
0.2809 | 75 | 0.257 |
0.2846 | 76 | 0.2311 |
0.2884 | 77 | 0.2195 |
0.2921 | 78 | 0.2225 |
0.2959 | 79 | 0.2325 |
0.2996 | 80 | 0.2443 |
0.3034 | 81 | 0.2319 |
0.3071 | 82 | 0.2521 |
0.3109 | 83 | 0.2061 |
0.3146 | 84 | 0.2231 |
0.3184 | 85 | 0.2277 |
0.3221 | 86 | 0.2278 |
0.3258 | 87 | 0.2057 |
0.3296 | 88 | 0.2445 |
0.3333 | 89 | 0.2578 |
0.3371 | 90 | 0.2141 |
0.3408 | 91 | 0.254 |
0.3446 | 92 | 0.2506 |
0.3483 | 93 | 0.235 |
0.3521 | 94 | 0.2506 |
0.3558 | 95 | 0.2204 |
0.3596 | 96 | 0.266 |
0.3633 | 97 | 0.2321 |
0.3670 | 98 | 0.2221 |
0.3708 | 99 | 0.2152 |
0.3745 | 100 | 0.2363 |
0.3783 | 101 | 0.2177 |
0.3820 | 102 | 0.2031 |
0.3858 | 103 | 0.2321 |
0.3895 | 104 | 0.2462 |
0.3933 | 105 | 0.2092 |
0.3970 | 106 | 0.2276 |
0.4007 | 107 | 0.2356 |
0.4045 | 108 | 0.268 |
0.4082 | 109 | 0.232 |
0.4120 | 110 | 0.2415 |
0.4157 | 111 | 0.2204 |
0.4195 | 112 | 0.2348 |
0.4232 | 113 | 0.1954 |
0.4270 | 114 | 0.215 |
0.4307 | 115 | 0.2326 |
0.4345 | 116 | 0.2248 |
0.4382 | 117 | 0.2578 |
0.4419 | 118 | 0.2489 |
0.4457 | 119 | 0.2185 |
0.4494 | 120 | 0.2171 |
0.4532 | 121 | 0.2185 |
0.4569 | 122 | 0.2352 |
0.4607 | 123 | 0.2362 |
0.4644 | 124 | 0.2217 |
0.4682 | 125 | 0.2246 |
0.4719 | 126 | 0.2041 |
0.4757 | 127 | 0.2403 |
0.4794 | 128 | 0.1917 |
0.4831 | 129 | 0.2111 |
0.4869 | 130 | 0.2265 |
0.4906 | 131 | 0.2518 |
0.4944 | 132 | 0.2177 |
0.4981 | 133 | 0.1918 |
0.5019 | 134 | 0.2142 |
0.5056 | 135 | 0.2272 |
0.5094 | 136 | 0.206 |
0.5131 | 137 | 0.2198 |
0.5169 | 138 | 0.1734 |
0.5206 | 139 | 0.2132 |
0.5243 | 140 | 0.1878 |
0.5281 | 141 | 0.1933 |
0.5318 | 142 | 0.1977 |
0.5356 | 143 | 0.2087 |
0.5393 | 144 | 0.2341 |
0.5431 | 145 | 0.1843 |
0.5468 | 146 | 0.1948 |
0.5506 | 147 | 0.236 |
0.5543 | 148 | 0.202 |
0.5581 | 149 | 0.1962 |
0.5618 | 150 | 0.2579 |
0.5655 | 151 | 0.22 |
0.5693 | 152 | 0.2222 |
0.5730 | 153 | 0.2028 |
0.5768 | 154 | 0.1771 |
0.5805 | 155 | 0.1502 |
0.5843 | 156 | 0.2034 |
0.5880 | 157 | 0.1861 |
0.5918 | 158 | 0.2011 |
0.5955 | 159 | 0.2047 |
0.5993 | 160 | 0.2196 |
0.6030 | 161 | 0.2021 |
0.6067 | 162 | 0.1823 |
0.6105 | 163 | 0.2201 |
0.6142 | 164 | 0.2349 |
0.6180 | 165 | 0.2045 |
0.6217 | 166 | 0.2296 |
0.6255 | 167 | 0.1744 |
0.6292 | 168 | 0.239 |
0.6330 | 169 | 0.1877 |
0.6367 | 170 | 0.1968 |
0.6404 | 171 | 0.1929 |
0.6442 | 172 | 0.2134 |
0.6479 | 173 | 0.2108 |
0.6517 | 174 | 0.2004 |
0.6554 | 175 | 0.1894 |
0.6592 | 176 | 0.2023 |
0.6629 | 177 | 0.2255 |
0.6667 | 178 | 0.2372 |
0.6704 | 179 | 0.197 |
0.6742 | 180 | 0.1976 |
0.6779 | 181 | 0.2123 |
0.6816 | 182 | 0.2171 |
0.6854 | 183 | 0.1954 |
0.6891 | 184 | 0.2147 |
0.6929 | 185 | 0.2347 |
0.6966 | 186 | 0.2029 |
0.7004 | 187 | 0.2042 |
0.7041 | 188 | 0.1826 |
0.7079 | 189 | 0.1843 |
0.7116 | 190 | 0.1777 |
0.7154 | 191 | 0.2209 |
0.7191 | 192 | 0.1928 |
0.7228 | 193 | 0.2057 |
0.7266 | 194 | 0.1933 |
0.7303 | 195 | 0.204 |
0.7341 | 196 | 0.1713 |
0.7378 | 197 | 0.2077 |
0.7416 | 198 | 0.195 |
0.7453 | 199 | 0.1888 |
0.7491 | 200 | 0.1744 |
0.7528 | 201 | 0.2021 |
0.7566 | 202 | 0.1918 |
0.7603 | 203 | 0.1931 |
0.7640 | 204 | 0.2117 |
0.7678 | 205 | 0.2006 |
0.7715 | 206 | 0.1999 |
0.7753 | 207 | 0.2098 |
0.7790 | 208 | 0.1954 |
0.7828 | 209 | 0.1775 |
0.7865 | 210 | 0.21 |
0.7903 | 211 | 0.1963 |
0.7940 | 212 | 0.1735 |
0.7978 | 213 | 0.1672 |
0.8015 | 214 | 0.1768 |
0.8052 | 215 | 0.1974 |
0.8090 | 216 | 0.1791 |
0.8127 | 217 | 0.1671 |
0.8165 | 218 | 0.1939 |
0.8202 | 219 | 0.1903 |
0.8240 | 220 | 0.2155 |
0.8277 | 221 | 0.1944 |
0.8315 | 222 | 0.1866 |
0.8352 | 223 | 0.1898 |
0.8390 | 224 | 0.1793 |
0.8427 | 225 | 0.1903 |
0.8464 | 226 | 0.1936 |
0.8502 | 227 | 0.2212 |
0.8539 | 228 | 0.2163 |
0.8577 | 229 | 0.2204 |
0.8614 | 230 | 0.2029 |
0.8652 | 231 | 0.1918 |
0.8689 | 232 | 0.1914 |
0.8727 | 233 | 0.1706 |
0.8764 | 234 | 0.1779 |
0.8801 | 235 | 0.188 |
0.8839 | 236 | 0.1774 |
0.8876 | 237 | 0.1698 |
0.8914 | 238 | 0.1979 |
0.8951 | 239 | 0.1801 |
0.8989 | 240 | 0.1835 |
0.9026 | 241 | 0.1885 |
0.9064 | 242 | 0.1689 |
0.9101 | 243 | 0.2279 |
0.9139 | 244 | 0.2169 |
0.9176 | 245 | 0.2083 |
0.9213 | 246 | 0.2121 |
0.9251 | 247 | 0.1999 |
0.9288 | 248 | 0.1998 |
0.9326 | 249 | 0.1915 |
0.9363 | 250 | 0.1912 |
0.9401 | 251 | 0.2002 |
0.9438 | 252 | 0.1975 |
0.9476 | 253 | 0.2031 |
0.9513 | 254 | 0.1869 |
0.9551 | 255 | 0.202 |
0.9588 | 256 | 0.1638 |
0.9625 | 257 | 0.1978 |
0.9663 | 258 | 0.2 |
0.9700 | 259 | 0.1851 |
0.9738 | 260 | 0.1976 |
0.9775 | 261 | 0.1987 |
0.9813 | 262 | 0.1989 |
0.9850 | 263 | 0.198 |
0.9888 | 264 | 0.2087 |
0.9925 | 265 | 0.1868 |
0.9963 | 266 | 0.2047 |
1.0 | 267 | 0.1966 |
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.2.1
- Transformers: 4.44.2
- PyTorch: 2.3.1+cu121
- Accelerate: 1.1.1
- Datasets: 2.21.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
CachedMultipleNegativesRankingLoss
@misc{gao2021scaling,
title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
year={2021},
eprint={2101.06983},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
- Downloads last month
- 30
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for seongil-dn/bge-m3-kor-retrieval-451949-bs64-book
Base model
BAAI/bge-m3