SentenceTransformer based on BAAI/bge-m3
This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: BAAI/bge-m3
- Maximum Sequence Length: 1024 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("seongil-dn/bge-m3-kor-retrieval-451949-bs4096-full-32")
# Run inference
sentences = [
'관광 교통 서비스 체계 구축 정책의 추진은 몇 단계로 나눠서 할 수 있을까?',
'관광 교통 서비스 체계 정책 추진 주체로는 중앙 및 지방정부, 공공기관, 민간기관 등이 고려될 수 있다. 중앙정부 및 지방정부, 공공기관 중 연구기관은 정책을 추진하는 주체로서, 지방정부와 사업기관은 정책을 실행하는 주체로서, 민간 기관은 직접 사업을 추진하는 주체로서 참여할 수 있다. 관광 교통은 기존 교통시설 및 수단을 관광객이 이용하는 개념이기 때문에 정책 영역이 국토교통부, 문화체육관광부, 넓게는 해양수산부 등 여러 부처에 걸쳐 있다. 원활한 정책사업 추진을 위해서는 부처 간 협력이 필수적이며, 부처 간 협력 체계로는 협력적 개별사업추진, 공동사업추진, 사업추진 조직구성 등 세 가지 대안을 고려해볼 수 있다. 관광 교통 서비스 체계 구축 정책은 3단계로 구분하여 추진할 수 있다. 1단계는 2016년 2017년으로 설정하고자 하며, 이 시기는 관광 교통 정책 사업을 추진하기 위한 기반을 마련하는 단계이다. 2단계는 2018년부터 2020년까지 3년간으로 본격적인 정책 사업이 추진되는 시기이며, 3단계는 2021년 이후 정책사업의 효과가 창출되는 기간으로, 확장된 형태의 신규 사업을 발굴 및 추진할 수 있어야 한다.',
'관광교통 서비스 체계는 관광 활동을 위한 관광객의 이동 편의성과 효용을 최대화 하는 시스템을 뜻한다. 서비스 체계를 적용하는 영역은 관광 교통 정보, 관광교통수단, 관광교통 편의 서비스로 구분하여 볼 수 있다. 관광교통 정보는 관광 목적지에 도달하기 위해 필요한 관광교통 수단 및 관광교통 편의 서비스 등에 대한 종합적 정보를 뜻한다. 주요 관광자원과 관광 자원까지 이동하는 데 필요한 루트, 루트를 이동하기 위해 필요한 관광교통 수단과 비용, 관광교통 편의 서비스 등에 대한 정보를 모두 포함한다. 관광교통 수단은 출발지로부터 관광목적지를 연결하는 일반 및 특수교통수단을 뜻한다. 또한 교통 수단의 시간적, 공간적 연계 배치와 기반 시설로서 공항, 터미널, 역 또한 교통수단의 범위에 포함한다. 관광교통 편의 시스템은 교통수단의 이용을 보다 편리하게 하는 제도 및 서비스를 뜻한다. 관광교통 편의 서비스 영역에는 예약 할인, 그 밖의 제반 편의 서비스를 모두 포괄한다. 또한 교통수단의 이용은 물론 관광지 입장까지 아우르는 통합 패스 티켓, 바우처 등을 포함한다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 4096learning_rate
: 3e-05warmup_ratio
: 0.05fp16
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 4096per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 3e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 3max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.05warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Truedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseeval_use_gather_object
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss |
---|---|---|
0.0769 | 1 | 3.0662 |
0.1538 | 2 | 3.0577 |
0.2308 | 3 | 3.1126 |
0.3077 | 4 | 1.8085 |
0.3846 | 5 | 1.6333 |
0.4615 | 6 | 1.5018 |
0.5385 | 7 | 1.4955 |
0.6154 | 8 | 1.2295 |
0.6923 | 9 | 1.0032 |
0.7692 | 10 | 0.884 |
0.8462 | 11 | 0.768 |
0.9231 | 12 | 0.7185 |
1.0 | 13 | 0.6493 |
1.0769 | 14 | 0.6176 |
1.1538 | 15 | 0.5703 |
1.2308 | 16 | 0.5469 |
1.3077 | 17 | 0.5242 |
1.3846 | 18 | 0.4967 |
1.4615 | 19 | 0.4758 |
1.5385 | 20 | 0.4665 |
1.6154 | 21 | 0.4561 |
1.6923 | 22 | 0.4341 |
1.7692 | 23 | 0.4299 |
1.8462 | 24 | 0.4039 |
1.9231 | 25 | 0.4034 |
2.0 | 26 | 0.3901 |
2.0769 | 27 | 0.3814 |
2.1538 | 28 | 0.3605 |
2.2308 | 29 | 0.3624 |
2.3077 | 30 | 0.3587 |
2.3846 | 31 | 0.356 |
2.4615 | 32 | 0.3575 |
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.2.1
- Transformers: 4.44.2
- PyTorch: 2.3.1+cu121
- Accelerate: 1.1.1
- Datasets: 2.21.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
- Downloads last month
- 15
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.