Edit model card

gte-base-en-v1.5-klej-dyk-v0.1

This is a sentence-transformers model finetuned from Alibaba-NLP/gte-base-en-v1.5. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: Alibaba-NLP/gte-base-en-v1.5
  • Maximum Sequence Length: 8192 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity
  • Language: en
  • License: apache-2.0

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'Sen o zastrzyku Irmy',
    'gdzie Freud spotkał Irmę we śnie o zastrzyku Irmy?',
    'ile razy Srebrna Biblia była przywożona do Szwecji?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.2067
cosine_accuracy@3 0.4856
cosine_accuracy@5 0.6731
cosine_accuracy@10 0.7909
cosine_precision@1 0.2067
cosine_precision@3 0.1619
cosine_precision@5 0.1346
cosine_precision@10 0.0791
cosine_recall@1 0.2067
cosine_recall@3 0.4856
cosine_recall@5 0.6731
cosine_recall@10 0.7909
cosine_ndcg@10 0.4819
cosine_mrr@10 0.384
cosine_map@100 0.3898

Information Retrieval

Metric Value
cosine_accuracy@1 0.1947
cosine_accuracy@3 0.476
cosine_accuracy@5 0.6587
cosine_accuracy@10 0.7716
cosine_precision@1 0.1947
cosine_precision@3 0.1587
cosine_precision@5 0.1317
cosine_precision@10 0.0772
cosine_recall@1 0.1947
cosine_recall@3 0.476
cosine_recall@5 0.6587
cosine_recall@10 0.7716
cosine_ndcg@10 0.47
cosine_mrr@10 0.3741
cosine_map@100 0.3808

Information Retrieval

Metric Value
cosine_accuracy@1 0.1947
cosine_accuracy@3 0.4639
cosine_accuracy@5 0.6466
cosine_accuracy@10 0.7308
cosine_precision@1 0.1947
cosine_precision@3 0.1546
cosine_precision@5 0.1293
cosine_precision@10 0.0731
cosine_recall@1 0.1947
cosine_recall@3 0.4639
cosine_recall@5 0.6466
cosine_recall@10 0.7308
cosine_ndcg@10 0.4534
cosine_mrr@10 0.3647
cosine_map@100 0.3731

Information Retrieval

Metric Value
cosine_accuracy@1 0.1947
cosine_accuracy@3 0.4279
cosine_accuracy@5 0.5721
cosine_accuracy@10 0.6899
cosine_precision@1 0.1947
cosine_precision@3 0.1426
cosine_precision@5 0.1144
cosine_precision@10 0.069
cosine_recall@1 0.1947
cosine_recall@3 0.4279
cosine_recall@5 0.5721
cosine_recall@10 0.6899
cosine_ndcg@10 0.4267
cosine_mrr@10 0.3439
cosine_map@100 0.3517

Information Retrieval

Metric Value
cosine_accuracy@1 0.1779
cosine_accuracy@3 0.3702
cosine_accuracy@5 0.4591
cosine_accuracy@10 0.5793
cosine_precision@1 0.1779
cosine_precision@3 0.1234
cosine_precision@5 0.0918
cosine_precision@10 0.0579
cosine_recall@1 0.1779
cosine_recall@3 0.3702
cosine_recall@5 0.4591
cosine_recall@10 0.5793
cosine_ndcg@10 0.3628
cosine_mrr@10 0.2951
cosine_map@100 0.3068

Training Details

Training Dataset

Unnamed Dataset

  • Size: 3,738 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 7 tokens
    • mean: 89.43 tokens
    • max: 507 tokens
    • min: 9 tokens
    • mean: 30.98 tokens
    • max: 76 tokens
  • Samples:
    positive anchor
    Zespół Blaua (zespół Jabsa, ang. Blau syndrome, BS) – rzadka choroba genetyczna o dziedziczeniu autosomalnym dominującym, charakteryzująca się ziarniniakowym zapaleniem stawów o wczesnym początku, zapaleniem jagodówki (uveitis) i wysypką skórną, a także kamptodaktylią. jakie choroby genetyczne dziedziczą się autosomalnie dominująco?
    Gorgippia Gorgippia – starożytne miasto bosporańskie nad Morzem Czarnym, którego pozostałości znajdują się obecnie pod współczesną zabudową centralnej części miasta Anapa w Kraju Krasnodarskim w Rosji. gdzie obecnie znajduje się starożytne miasto Gorgippia?
    Ulubionym dystansem Rücker było 400 metrów i to na nim notowała największe indywidualne sukcesy : srebrny medal Mistrzostw Europy juniorów w lekkoatletyce (Saloniki 1991) 6. miejsce w Pucharze Świata w Lekkoatletyce (Hawana 1992) 5. miejsce na Mistrzostwach Europy w Lekkoatletyce (Helsinki 1994) srebro podczas Mistrzostw Świata w Lekkoatletyce (Sewilla 1999) złota medalistka mistrzostw Niemiec Duże sukcesy odnosiła także w sztafecie 4 x 400 metrów : złoto Mistrzostw Europy juniorów w lekkoatletyce (Varaždin 1989) złoty medal Mistrzostw Europy juniorów w lekkoatletyce (Saloniki 1991) brąz na Mistrzostwach Europy w Lekkoatletyce (Helsinki 1994) brązowy medal podczas Igrzysk Olimpijskich (Atlanta 1996) brąz na Halowych Mistrzostwach Świata w Lekkoatletyce (Paryż 1997) złoto Mistrzostw Świata w Lekkoatletyce (Ateny 1997) brązowy medal Mistrzostw Świata w Lekkoatletyce (Sewilla 1999) kto zaprojektował medale, które będą wręczane podczas tegorocznych mistrzostw Europy juniorów w lekkoatletyce?
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • gradient_accumulation_steps: 4
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • bf16: True
  • tf32: True
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 4
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: True
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss dim_128_cosine_map@100 dim_256_cosine_map@100 dim_512_cosine_map@100 dim_64_cosine_map@100 dim_768_cosine_map@100
0.0043 1 3.4442 - - - - -
0.0086 2 1.3916 - - - - -
0.0128 3 3.1284 - - - - -
0.0171 4 2.2049 - - - - -
0.0214 5 1.1821 - - - - -
0.0257 6 2.6633 - - - - -
0.0299 7 1.8173 - - - - -
0.0342 8 3.8366 - - - - -
0.0385 9 2.4439 - - - - -
0.0428 10 1.9733 - - - - -
0.0471 11 3.7611 - - - - -
0.0513 12 2.578 - - - - -
0.0556 13 1.656 - - - - -
0.0599 14 2.1508 - - - - -
0.0642 15 1.4962 - - - - -
0.0684 16 1.5743 - - - - -
0.0727 17 2.5404 - - - - -
0.0770 18 1.1436 - - - - -
0.0813 19 3.1786 - - - - -
0.0856 20 2.3377 - - - - -
0.0898 21 1.9693 - - - - -
0.0941 22 2.3942 - - - - -
0.0984 23 2.2259 - - - - -
0.1027 24 3.3127 - - - - -
0.1070 25 1.3368 - - - - -
0.1112 26 2.5546 - - - - -
0.1155 27 1.5828 - - - - -
0.1198 28 1.908 - - - - -
0.1241 29 1.9959 - - - - -
0.1283 30 1.2909 - - - - -
0.1326 31 1.7274 - - - - -
0.1369 32 1.9055 - - - - -
0.1412 33 3.3274 - - - - -
0.1455 34 2.5554 - - - - -
0.1497 35 1.7876 - - - - -
0.1540 36 2.0285 - - - - -
0.1583 37 3.0761 - - - - -
0.1626 38 3.4766 - - - - -
0.1668 39 1.4406 - - - - -
0.1711 40 1.7384 - - - - -
0.1754 41 1.8092 - - - - -
0.1797 42 3.146 - - - - -
0.1840 43 1.9202 - - - - -
0.1882 44 2.4776 - - - - -
0.1925 45 2.273 - - - - -
0.1968 46 1.2158 - - - - -
0.2011 47 0.6314 - - - - -
0.2053 48 1.2217 - - - - -
0.2096 49 1.7213 - - - - -
0.2139 50 2.1634 - - - - -
0.2182 51 1.0438 - - - - -
0.2225 52 1.4275 - - - - -
0.2267 53 1.6839 - - - - -
0.2310 54 1.5435 - - - - -
0.2353 55 2.3815 - - - - -
0.2396 56 2.3042 - - - - -
0.2439 57 2.3085 - - - - -
0.2481 58 2.0621 - - - - -
0.2524 59 1.339 - - - - -
0.2567 60 0.9167 - - - - -
0.2610 61 0.8112 - - - - -
0.2652 62 2.2327 - - - - -
0.2695 63 2.6571 - - - - -
0.2738 64 1.8199 - - - - -
0.2781 65 2.6123 - - - - -
0.2824 66 0.6182 - - - - -
0.2866 67 1.8278 - - - - -
0.2909 68 1.6969 - - - - -
0.2952 69 0.7902 - - - - -
0.2995 70 2.1857 - - - - -
0.3037 71 0.8371 - - - - -
0.3080 72 2.2118 - - - - -
0.3123 73 0.2464 - - - - -
0.3166 74 1.5362 - - - - -
0.3209 75 2.1047 - - - - -
0.3251 76 1.2654 - - - - -
0.3294 77 1.5016 - - - - -
0.3337 78 0.9273 - - - - -
0.3380 79 0.9228 - - - - -
0.3422 80 0.8002 - - - - -
0.3465 81 0.8325 - - - - -
0.3508 82 1.4914 - - - - -
0.3551 83 1.5896 - - - - -
0.3594 84 1.8716 - - - - -
0.3636 85 1.0927 - - - - -
0.3679 86 1.1389 - - - - -
0.3722 87 0.9251 - - - - -
0.3765 88 1.3966 - - - - -
0.3807 89 2.2866 - - - - -
0.3850 90 1.3756 - - - - -
0.3893 91 0.7271 - - - - -
0.3936 92 1.7267 - - - - -
0.3979 93 2.0597 - - - - -
0.4021 94 1.9522 - - - - -
0.4064 95 1.0192 - - - - -
0.4107 96 2.987 - - - - -
0.4150 97 1.9623 - - - - -
0.4193 98 2.0779 - - - - -
0.4235 99 1.6256 - - - - -
0.4278 100 1.6273 - - - - -
0.4321 101 2.848 - - - - -
0.4364 102 1.4129 - - - - -
0.4406 103 0.7578 - - - - -
0.4449 104 0.7026 - - - - -
0.4492 105 1.5958 - - - - -
0.4535 106 2.5135 - - - - -
0.4578 107 0.5845 - - - - -
0.4620 108 1.4398 - - - - -
0.4663 109 1.0315 - - - - -
0.4706 110 0.7233 - - - - -
0.4749 111 0.4793 - - - - -
0.4791 112 0.52 - - - - -
0.4834 113 0.4099 - - - - -
0.4877 114 1.2661 - - - - -
0.4920 115 1.7636 - - - - -
0.4963 116 2.0581 - - - - -
0.5005 117 0.9092 - - - - -
0.5048 118 1.5175 - - - - -
0.5091 119 1.7537 - - - - -
0.5134 120 0.984 - - - - -
0.5176 121 0.5867 - - - - -
0.5219 122 0.7082 - - - - -
0.5262 123 1.1787 - - - - -
0.5305 124 1.0118 - - - - -
0.5348 125 2.0169 - - - - -
0.5390 126 1.2881 - - - - -
0.5433 127 1.4748 - - - - -
0.5476 128 1.9601 - - - - -
0.5519 129 2.7434 - - - - -
0.5561 130 1.3171 - - - - -
0.5604 131 1.221 - - - - -
0.5647 132 1.24 - - - - -
0.5690 133 1.7489 - - - - -
0.5733 134 1.5888 - - - - -
0.5775 135 1.6449 - - - - -
0.5818 136 2.2163 - - - - -
0.5861 137 1.3148 - - - - -
0.5904 138 0.9209 - - - - -
0.5947 139 1.3826 - - - - -
0.5989 140 0.7924 - - - - -
0.6032 141 0.603 - - - - -
0.6075 142 1.6646 - - - - -
0.6118 143 1.2747 - - - - -
0.6160 144 2.4583 - - - - -
0.6203 145 2.0143 - - - - -
0.6246 146 1.8152 - - - - -
0.6289 147 0.6461 - - - - -
0.6332 148 0.5025 - - - - -
0.6374 149 0.6427 - - - - -
0.6417 150 1.6096 - - - - -
0.6460 151 3.0679 - - - - -
0.6503 152 2.8778 - - - - -
0.6545 153 1.2788 - - - - -
0.6588 154 0.5234 - - - - -
0.6631 155 1.2211 - - - - -
0.6674 156 1.5935 - - - - -
0.6717 157 1.892 - - - - -
0.6759 158 0.9767 - - - - -
0.6802 159 1.8692 - - - - -
0.6845 160 1.9853 - - - - -
0.6888 161 0.9568 - - - - -
0.6930 162 0.526 - - - - -
0.6973 163 0.6527 - - - - -
0.7016 164 1.2888 - - - - -
0.7059 165 0.9485 - - - - -
0.7102 166 2.3512 - - - - -
0.7144 167 2.5909 - - - - -
0.7187 168 1.9271 - - - - -
0.7230 169 1.7218 - - - - -
0.7273 170 1.6517 - - - - -
0.7316 171 1.3378 - - - - -
0.7358 172 1.5502 - - - - -
0.7401 173 1.7182 - - - - -
0.7444 174 2.0422 - - - - -
0.7487 175 2.1827 - - - - -
0.7529 176 0.917 - - - - -
0.7572 177 2.4209 - - - - -
0.7615 178 0.7705 - - - - -
0.7658 179 0.4089 - - - - -
0.7701 180 0.7368 - - - - -
0.7743 181 0.7583 - - - - -
0.7786 182 1.2686 - - - - -
0.7829 183 0.9401 - - - - -
0.7872 184 1.9668 - - - - -
0.7914 185 1.7905 - - - - -
0.7957 186 0.4372 - - - - -
0.8 187 1.3618 - - - - -
0.8043 188 1.0816 - - - - -
0.8086 189 0.5696 - - - - -
0.8128 190 0.7607 - - - - -
0.8171 191 2.8499 - - - - -
0.8214 192 2.251 - - - - -
0.8257 193 2.3819 - - - - -
0.8299 194 0.4848 - - - - -
0.8342 195 1.0241 - - - - -
0.8385 196 0.4664 - - - - -
0.8428 197 1.0253 - - - - -
0.8471 198 1.3517 - - - - -
0.8513 199 1.5231 - - - - -
0.8556 200 1.9424 - - - - -
0.8599 201 1.6661 - - - - -
0.8642 202 0.204 - - - - -
0.8684 203 1.805 - - - - -
0.8727 204 1.2863 - - - - -
0.8770 205 2.3292 - - - - -
0.8813 206 1.4561 - - - - -
0.8856 207 0.4618 - - - - -
0.8898 208 0.9744 - - - - -
0.8941 209 0.5276 - - - - -
0.8984 210 0.8812 - - - - -
0.9027 211 0.6778 - - - - -
0.9070 212 1.2382 - - - - -
0.9112 213 0.7281 - - - - -
0.9155 214 1.4499 - - - - -
0.9198 215 1.8433 - - - - -
0.9241 216 0.4683 - - - - -
0.9283 217 0.7045 - - - - -
0.9326 218 1.0181 - - - - -
0.9369 219 1.104 - - - - -
0.9412 220 0.4282 - - - - -
0.9455 221 1.8888 - - - - -
0.9497 222 0.7936 - - - - -
0.9540 223 2.5346 - - - - -
0.9583 224 0.8337 - - - - -
0.9626 225 1.6245 - - - - -
0.9668 226 0.8955 - - - - -
0.9711 227 0.9813 - - - - -
0.9754 228 0.9429 - - - - -
0.9797 229 1.5297 - - - - -
0.9840 230 1.0861 - - - - -
0.9882 231 1.5228 - - - - -
0.9925 232 0.8545 - - - - -
0.9968 233 2.3052 0.3541 0.3928 0.3969 0.2990 0.4032
1.0011 234 0.5205 - - - - -
1.0053 235 1.6719 - - - - -
1.0096 236 0.5632 - - - - -
1.0139 237 0.3602 - - - - -
1.0182 238 0.4581 - - - - -
1.0225 239 1.7666 - - - - -
1.0267 240 0.925 - - - - -
1.0310 241 0.9264 - - - - -
1.0353 242 1.5405 - - - - -
1.0396 243 0.5346 - - - - -
1.0439 244 1.1432 - - - - -
1.0481 245 2.7575 - - - - -
1.0524 246 0.6409 - - - - -
1.0567 247 0.5409 - - - - -
1.0610 248 0.5996 - - - - -
1.0652 249 0.6733 - - - - -
1.0695 250 0.9336 - - - - -
1.0738 251 1.4003 - - - - -
1.0781 252 0.544 - - - - -
1.0824 253 1.871 - - - - -
1.0866 254 1.8823 - - - - -
1.0909 255 0.9452 - - - - -
1.0952 256 0.5241 - - - - -
1.0995 257 0.5349 - - - - -
1.1037 258 1.7114 - - - - -
1.1080 259 0.6899 - - - - -
1.1123 260 0.657 - - - - -
1.1166 261 0.5195 - - - - -
1.1209 262 1.3961 - - - - -
1.1251 263 0.429 - - - - -
1.1294 264 0.0763 - - - - -
1.1337 265 0.7172 - - - - -
1.1380 266 0.408 - - - - -
1.1422 267 0.7704 - - - - -
1.1465 268 0.7025 - - - - -
1.1508 269 0.4682 - - - - -
1.1551 270 0.4666 - - - - -
1.1594 271 1.8544 - - - - -
1.1636 272 0.5303 - - - - -
1.1679 273 0.6873 - - - - -
1.1722 274 0.6294 - - - - -
1.1765 275 1.7406 - - - - -
1.1807 276 0.9965 - - - - -
1.1850 277 0.5852 - - - - -
1.1893 278 0.7836 - - - - -
1.1936 279 0.5689 - - - - -
1.1979 280 0.3104 - - - - -
1.2021 281 0.1838 - - - - -
1.2064 282 1.2004 - - - - -
1.2107 283 0.2965 - - - - -
1.2150 284 0.8235 - - - - -
1.2193 285 0.4341 - - - - -
1.2235 286 0.8613 - - - - -
1.2278 287 0.2466 - - - - -
1.2321 288 0.4417 - - - - -
1.2364 289 0.3849 - - - - -
1.2406 290 1.0044 - - - - -
1.2449 291 0.4567 - - - - -
1.2492 292 0.7786 - - - - -
1.2535 293 0.1726 - - - - -
1.2578 294 0.6764 - - - - -
1.2620 295 0.5581 - - - - -
1.2663 296 0.3714 - - - - -
1.2706 297 0.4684 - - - - -
1.2749 298 1.197 - - - - -
1.2791 299 0.3273 - - - - -
1.2834 300 0.1804 - - - - -
1.2877 301 0.5446 - - - - -
1.2920 302 0.978 - - - - -
1.2963 303 0.1825 - - - - -
1.3005 304 0.8737 - - - - -
1.3048 305 0.1771 - - - - -
1.3091 306 0.1146 - - - - -
1.3134 307 0.2057 - - - - -
1.3176 308 0.7019 - - - - -
1.3219 309 0.4566 - - - - -
1.3262 310 0.5807 - - - - -
1.3305 311 0.299 - - - - -
1.3348 312 0.5087 - - - - -
1.3390 313 0.4208 - - - - -
1.3433 314 0.1847 - - - - -
1.3476 315 0.5001 - - - - -
1.3519 316 0.1688 - - - - -
1.3561 317 0.2255 - - - - -
1.3604 318 0.4908 - - - - -
1.3647 319 0.1893 - - - - -
1.3690 320 0.2928 - - - - -
1.3733 321 0.1817 - - - - -
1.3775 322 0.6634 - - - - -
1.3818 323 0.9223 - - - - -
1.3861 324 0.2463 - - - - -
1.3904 325 0.3846 - - - - -
1.3947 326 0.789 - - - - -
1.3989 327 0.6919 - - - - -
1.4032 328 0.3168 - - - - -
1.4075 329 0.4332 - - - - -
1.4118 330 0.9224 - - - - -
1.4160 331 0.2678 - - - - -
1.4203 332 0.2826 - - - - -
1.4246 333 0.1273 - - - - -
1.4289 334 0.3071 - - - - -
1.4332 335 0.3195 - - - - -
1.4374 336 0.3031 - - - - -
1.4417 337 0.2312 - - - - -
1.4460 338 0.0635 - - - - -
1.4503 339 1.1888 - - - - -
1.4545 340 0.3506 - - - - -
1.4588 341 0.0363 - - - - -
1.4631 342 0.2748 - - - - -
1.4674 343 0.1862 - - - - -
1.4717 344 0.1419 - - - - -
1.4759 345 0.2381 - - - - -
1.4802 346 0.0541 - - - - -
1.4845 347 0.1185 - - - - -
1.4888 348 0.4528 - - - - -
1.4930 349 0.4922 - - - - -
1.4973 350 0.1744 - - - - -
1.5016 351 0.241 - - - - -
1.5059 352 0.1481 - - - - -
1.5102 353 0.3377 - - - - -
1.5144 354 0.2208 - - - - -
1.5187 355 0.054 - - - - -
1.5230 356 0.1506 - - - - -
1.5273 357 0.0794 - - - - -
1.5316 358 0.1631 - - - - -
1.5358 359 0.1571 - - - - -
1.5401 360 0.2831 - - - - -
1.5444 361 0.3486 - - - - -
1.5487 362 0.6273 - - - - -
1.5529 363 1.0274 - - - - -
1.5572 364 0.269 - - - - -
1.5615 365 0.1897 - - - - -
1.5658 366 0.1987 - - - - -
1.5701 367 0.1943 - - - - -
1.5743 368 0.4424 - - - - -
1.5786 369 0.0848 - - - - -
1.5829 370 0.3504 - - - - -
1.5872 371 0.1759 - - - - -
1.5914 372 0.1168 - - - - -
1.5957 373 0.0824 - - - - -
1.6 374 0.2637 - - - - -
1.6043 375 0.2454 - - - - -
1.6086 376 0.1974 - - - - -
1.6128 377 0.5961 - - - - -
1.6171 378 1.0758 - - - - -
1.6214 379 0.6134 - - - - -
1.6257 380 0.3244 - - - - -
1.6299 381 0.0201 - - - - -
1.6342 382 0.1052 - - - - -
1.6385 383 0.2025 - - - - -
1.6428 384 0.9475 - - - - -
1.6471 385 1.3788 - - - - -
1.6513 386 0.4879 - - - - -
1.6556 387 0.226 - - - - -
1.6599 388 0.0576 - - - - -
1.6642 389 0.4956 - - - - -
1.6684 390 0.3145 - - - - -
1.6727 391 0.5387 - - - - -
1.6770 392 0.5391 - - - - -
1.6813 393 0.6977 - - - - -
1.6856 394 0.4331 - - - - -
1.6898 395 0.6582 - - - - -
1.6941 396 0.5774 - - - - -
1.6984 397 0.1363 - - - - -
1.7027 398 0.1877 - - - - -
1.7070 399 0.3772 - - - - -
1.7112 400 0.6645 - - - - -
1.7155 401 0.8067 - - - - -
1.7198 402 0.1889 - - - - -
1.7241 403 0.3212 - - - - -
1.7283 404 0.6867 - - - - -
1.7326 405 0.228 - - - - -
1.7369 406 0.4952 - - - - -
1.7412 407 0.5718 - - - - -
1.7455 408 0.2607 - - - - -
1.7497 409 0.3326 - - - - -
1.7540 410 0.5813 - - - - -
1.7583 411 0.8952 - - - - -
1.7626 412 0.0735 - - - - -
1.7668 413 0.1031 - - - - -
1.7711 414 0.0321 - - - - -
1.7754 415 0.0909 - - - - -
1.7797 416 0.4591 - - - - -
1.7840 417 0.2188 - - - - -
1.7882 418 0.1857 - - - - -
1.7925 419 0.4137 - - - - -
1.7968 420 0.0631 - - - - -
1.8011 421 0.3535 - - - - -
1.8053 422 0.467 - - - - -
1.8096 423 0.0427 - - - - -
1.8139 424 0.7846 - - - - -
1.8182 425 0.8365 - - - - -
1.8225 426 0.1746 - - - - -
1.8267 427 0.3084 - - - - -
1.8310 428 0.0457 - - - - -
1.8353 429 0.108 - - - - -
1.8396 430 0.5707 - - - - -
1.8439 431 0.2809 - - - - -
1.8481 432 0.162 - - - - -
1.8524 433 0.3929 - - - - -
1.8567 434 0.2679 - - - - -
1.8610 435 0.4651 - - - - -
1.8652 436 0.3847 - - - - -
1.8695 437 0.3955 - - - - -
1.8738 438 0.2116 - - - - -
1.8781 439 0.7634 - - - - -
1.8824 440 0.1442 - - - - -
1.8866 441 0.0805 - - - - -
1.8909 442 0.0605 - - - - -
1.8952 443 0.1937 - - - - -
1.8995 444 0.1044 - - - - -
1.9037 445 0.5122 - - - - -
1.9080 446 0.1195 - - - - -
1.9123 447 0.1904 - - - - -
1.9166 448 0.2764 - - - - -
1.9209 449 0.5287 - - - - -
1.9251 450 0.1051 - - - - -
1.9294 451 0.1825 - - - - -
1.9337 452 0.0838 - - - - -
1.9380 453 0.0739 - - - - -
1.9422 454 0.0988 - - - - -
1.9465 455 0.2542 - - - - -
1.9508 456 0.1043 - - - - -
1.9551 457 0.4259 - - - - -
1.9594 458 0.1923 - - - - -
1.9636 459 0.2651 - - - - -
1.9679 460 0.0533 - - - - -
1.9722 461 0.2306 - - - - -
1.9765 462 0.168 - - - - -
1.9807 463 0.3181 - - - - -
1.9850 464 0.042 - - - - -
1.9893 465 0.0833 - - - - -
1.9936 466 0.2425 - - - - -
1.9979 467 0.7451 0.3624 0.3819 0.3987 0.3061 0.3968
2.0021 468 0.1784 - - - - -
2.0064 469 0.2073 - - - - -
2.0107 470 0.211 - - - - -
2.0150 471 0.0456 - - - - -
2.0193 472 0.1354 - - - - -
2.0235 473 0.1245 - - - - -
2.0278 474 0.0861 - - - - -
2.0321 475 0.0397 - - - - -
2.0364 476 0.0925 - - - - -
2.0406 477 0.0652 - - - - -
2.0449 478 0.4905 - - - - -
2.0492 479 0.1338 - - - - -
2.0535 480 0.0463 - - - - -
2.0578 481 0.1399 - - - - -
2.0620 482 0.0192 - - - - -
2.0663 483 0.1343 - - - - -
2.0706 484 0.1027 - - - - -
2.0749 485 0.1746 - - - - -
2.0791 486 0.584 - - - - -
2.0834 487 0.2704 - - - - -
2.0877 488 0.3391 - - - - -
2.0920 489 0.0892 - - - - -
2.0963 490 0.1273 - - - - -
2.1005 491 0.0644 - - - - -
2.1048 492 0.2457 - - - - -
2.1091 493 0.147 - - - - -
2.1134 494 0.2746 - - - - -
2.1176 495 0.1425 - - - - -
2.1219 496 0.198 - - - - -
2.1262 497 0.1079 - - - - -
2.1305 498 0.0583 - - - - -
2.1348 499 0.0646 - - - - -
2.1390 500 0.1751 - - - - -
2.1433 501 0.2996 - - - - -
2.1476 502 0.1059 - - - - -
2.1519 503 0.162 - - - - -
2.1561 504 0.1426 - - - - -
2.1604 505 0.4076 - - - - -
2.1647 506 0.0968 - - - - -
2.1690 507 0.0867 - - - - -
2.1733 508 0.0713 - - - - -
2.1775 509 0.2186 - - - - -
2.1818 510 0.099 - - - - -
2.1861 511 0.1216 - - - - -
2.1904 512 0.3812 - - - - -
2.1947 513 0.1481 - - - - -
2.1989 514 0.1637 - - - - -
2.2032 515 0.1068 - - - - -
2.2075 516 0.1002 - - - - -
2.2118 517 0.2612 - - - - -
2.2160 518 0.1599 - - - - -
2.2203 519 0.0513 - - - - -
2.2246 520 0.1409 - - - - -
2.2289 521 0.0171 - - - - -
2.2332 522 0.059 - - - - -
2.2374 523 0.2391 - - - - -
2.2417 524 0.2119 - - - - -
2.2460 525 0.1562 - - - - -
2.2503 526 0.3576 - - - - -
2.2545 527 0.3094 - - - - -
2.2588 528 0.0472 - - - - -
2.2631 529 0.1259 - - - - -
2.2674 530 0.0282 - - - - -
2.2717 531 0.5926 - - - - -
2.2759 532 0.1211 - - - - -
2.2802 533 0.0334 - - - - -
2.2845 534 0.0233 - - - - -
2.2888 535 0.0937 - - - - -
2.2930 536 0.0868 - - - - -
2.2973 537 0.0235 - - - - -
2.3016 538 0.1052 - - - - -
2.3059 539 0.0276 - - - - -
2.3102 540 0.0682 - - - - -
2.3144 541 0.0945 - - - - -
2.3187 542 0.0401 - - - - -
2.3230 543 0.0883 - - - - -
2.3273 544 0.0358 - - - - -
2.3316 545 0.0498 - - - - -
2.3358 546 0.0238 - - - - -
2.3401 547 0.2935 - - - - -
2.3444 548 0.0459 - - - - -
2.3487 549 0.0473 - - - - -
2.3529 550 0.1763 - - - - -
2.3572 551 0.125 - - - - -
2.3615 552 0.1579 - - - - -
2.3658 553 0.0526 - - - - -
2.3701 554 0.0522 - - - - -
2.3743 555 0.2429 - - - - -
2.3786 556 0.097 - - - - -
2.3829 557 0.1971 - - - - -
2.3872 558 0.0722 - - - - -
2.3914 559 0.3371 - - - - -
2.3957 560 0.4065 - - - - -
2.4 561 0.8116 - - - - -
2.4043 562 0.0576 - - - - -
2.4086 563 0.1228 - - - - -
2.4128 564 0.3299 - - - - -
2.4171 565 0.3528 - - - - -
2.4214 566 0.0664 - - - - -
2.4257 567 0.0782 - - - - -
2.4299 568 0.0353 - - - - -
2.4342 569 0.0786 - - - - -
2.4385 570 0.179 - - - - -
2.4428 571 0.0167 - - - - -
2.4471 572 0.0309 - - - - -
2.4513 573 0.2699 - - - - -
2.4556 574 0.0223 - - - - -
2.4599 575 0.0062 - - - - -
2.4642 576 0.0825 - - - - -
2.4684 577 0.1334 - - - - -
2.4727 578 0.0161 - - - - -
2.4770 579 0.0136 - - - - -
2.4813 580 0.0477 - - - - -
2.4856 581 0.0869 - - - - -
2.4898 582 0.0569 - - - - -
2.4941 583 0.1039 - - - - -
2.4984 584 0.0891 - - - - -
2.5027 585 0.0251 - - - - -
2.5070 586 0.0532 - - - - -
2.5112 587 0.0665 - - - - -
2.5155 588 0.0361 - - - - -
2.5198 589 0.0126 - - - - -
2.5241 590 0.0614 - - - - -
2.5283 591 0.0584 - - - - -
2.5326 592 0.0137 - - - - -
2.5369 593 0.1374 - - - - -
2.5412 594 0.0723 - - - - -
2.5455 595 0.0739 - - - - -
2.5497 596 0.388 - - - - -
2.5540 597 0.201 - - - - -
2.5583 598 0.0377 - - - - -
2.5626 599 0.0653 - - - - -
2.5668 600 0.0748 - - - - -
2.5711 601 0.0246 - - - - -
2.5754 602 0.0277 - - - - -
2.5797 603 0.0216 - - - - -
2.5840 604 0.0996 - - - - -
2.5882 605 0.1079 - - - - -
2.5925 606 0.0388 - - - - -
2.5968 607 0.0196 - - - - -
2.6011 608 0.051 - - - - -
2.6053 609 0.2019 - - - - -
2.6096 610 0.0523 - - - - -
2.6139 611 0.2106 - - - - -
2.6182 612 0.0803 - - - - -
2.6225 613 0.1198 - - - - -
2.6267 614 0.0261 - - - - -
2.6310 615 0.006 - - - - -
2.6353 616 0.0124 - - - - -
2.6396 617 0.0184 - - - - -
2.6439 618 0.0586 - - - - -
2.6481 619 0.2706 - - - - -
2.6524 620 0.1514 - - - - -
2.6567 621 0.0402 - - - - -
2.6610 622 0.0213 - - - - -
2.6652 623 0.0633 - - - - -
2.6695 624 0.1043 - - - - -
2.6738 625 0.0199 - - - - -
2.6781 626 0.1759 - - - - -
2.6824 627 0.1978 - - - - -
2.6866 628 0.1043 - - - - -
2.6909 629 0.1454 - - - - -
2.6952 630 0.0462 - - - - -
2.6995 631 0.0308 - - - - -
2.7037 632 0.0379 - - - - -
2.7080 633 0.3084 - - - - -
2.7123 634 0.1094 - - - - -
2.7166 635 0.1527 - - - - -
2.7209 636 0.1717 - - - - -
2.7251 637 0.4347 - - - - -
2.7294 638 0.128 - - - - -
2.7337 639 0.0658 - - - - -
2.7380 640 0.1678 - - - - -
2.7422 641 0.0508 - - - - -
2.7465 642 0.0797 - - - - -
2.7508 643 0.081 - - - - -
2.7551 644 0.1065 - - - - -
2.7594 645 0.1165 - - - - -
2.7636 646 0.0127 - - - - -
2.7679 647 0.0789 - - - - -
2.7722 648 0.0042 - - - - -
2.7765 649 0.014 - - - - -
2.7807 650 0.0638 - - - - -
2.7850 651 0.0376 - - - - -
2.7893 652 0.2348 - - - - -
2.7936 653 0.0505 - - - - -
2.7979 654 0.0194 - - - - -
2.8021 655 0.0507 - - - - -
2.8064 656 0.0825 - - - - -
2.8107 657 0.0156 - - - - -
2.8150 658 0.4371 - - - - -
2.8193 659 0.2948 - - - - -
2.8235 660 0.1324 - - - - -
2.8278 661 0.15 - - - - -
2.8321 662 0.0283 - - - - -
2.8364 663 0.0408 - - - - -
2.8406 664 0.0615 - - - - -
2.8449 665 0.0191 - - - - -
2.8492 666 0.0412 - - - - -
2.8535 667 0.0772 - - - - -
2.8578 668 0.1798 - - - - -
2.8620 669 0.1172 - - - - -
2.8663 670 0.018 - - - - -
2.8706 671 0.0386 - - - - -
2.8749 672 0.1195 - - - - -
2.8791 673 0.0948 - - - - -
2.8834 674 0.0271 - - - - -
2.8877 675 0.0237 - - - - -
2.8920 676 0.0149 - - - - -
2.8963 677 0.0405 - - - - -
2.9005 678 0.0126 - - - - -
2.9048 679 0.0261 - - - - -
2.9091 680 0.0418 - - - - -
2.9134 681 0.0742 - - - - -
2.9176 682 0.0708 - - - - -
2.9219 683 0.1017 - - - - -
2.9262 684 0.0161 - - - - -
2.9305 685 0.0664 - - - - -
2.9348 686 0.0127 - - - - -
2.9390 687 0.0371 - - - - -
2.9433 688 0.0231 - - - - -
2.9476 689 0.0621 - - - - -
2.9519 690 0.1051 - - - - -
2.9561 691 0.4462 - - - - -
2.9604 692 0.1279 - - - - -
2.9647 693 0.0166 - - - - -
2.9690 694 0.0282 - - - - -
2.9733 695 0.014 - - - - -
2.9775 696 0.0428 - - - - -
2.9818 697 0.0319 - - - - -
2.9861 698 0.0031 - - - - -
2.9904 699 0.1171 - - - - -
2.9947 700 0.1301 - - - - -
2.9989 701 0.085 0.3525 0.3812 0.3888 0.3093 0.3923
3.0032 702 0.16 - - - - -
3.0075 703 0.0331 - - - - -
3.0118 704 0.0278 - - - - -
3.0160 705 0.0283 - - - - -
3.0203 706 0.0247 - - - - -
3.0246 707 0.055 - - - - -
3.0289 708 0.1062 - - - - -
3.0332 709 0.0207 - - - - -
3.0374 710 0.0314 - - - - -
3.0417 711 0.0203 - - - - -
3.0460 712 0.1106 - - - - -
3.0503 713 0.0252 - - - - -
3.0545 714 0.0486 - - - - -
3.0588 715 0.0173 - - - - -
3.0631 716 0.0147 - - - - -
3.0674 717 0.0444 - - - - -
3.0717 718 0.0718 - - - - -
3.0759 719 0.0145 - - - - -
3.0802 720 0.2057 - - - - -
3.0845 721 0.0386 - - - - -
3.0888 722 0.0349 - - - - -
3.0930 723 0.0248 - - - - -
3.0973 724 0.0276 - - - - -
3.1016 725 0.0186 - - - - -
3.1059 726 0.1112 - - - - -
3.1102 727 0.0437 - - - - -
3.1144 728 0.0185 - - - - -
3.1187 729 0.0896 - - - - -
3.1230 730 0.2015 - - - - -
3.1273 731 0.0247 - - - - -
3.1316 732 0.0096 - - - - -
3.1358 733 0.0114 - - - - -
3.1401 734 0.1263 - - - - -
3.1444 735 0.0718 - - - - -
3.1487 736 0.0101 - - - - -
3.1529 737 0.125 - - - - -
3.1572 738 0.0931 - - - - -
3.1615 739 0.193 - - - - -
3.1658 740 0.0121 - - - - -
3.1701 741 0.0264 - - - - -
3.1743 742 0.094 - - - - -
3.1786 743 0.0835 - - - - -
3.1829 744 0.031 - - - - -
3.1872 745 0.0297 - - - - -
3.1914 746 0.0416 - - - - -
3.1957 747 0.0173 - - - - -
3.2 748 0.0088 - - - - -
3.2043 749 0.0235 - - - - -
3.2086 750 0.0715 - - - - -
3.2128 751 0.1977 - - - - -
3.2171 752 0.0217 - - - - -
3.2214 753 0.01 - - - - -
3.2257 754 0.016 - - - - -
3.2299 755 0.0116 - - - - -
3.2342 756 0.0662 - - - - -
3.2385 757 0.0783 - - - - -
3.2428 758 0.0814 - - - - -
3.2471 759 0.0391 - - - - -
3.2513 760 0.0329 - - - - -
3.2556 761 0.0238 - - - - -
3.2599 762 0.0124 - - - - -
3.2642 763 0.0529 - - - - -
3.2684 764 0.0735 - - - - -
3.2727 765 0.0444 - - - - -
3.2770 766 0.0489 - - - - -
3.2813 767 0.0074 - - - - -
3.2856 768 0.0149 - - - - -
3.2898 769 0.0147 - - - - -
3.2941 770 0.0235 - - - - -
3.2984 771 0.0224 - - - - -
3.3027 772 0.0231 - - - - -
3.3070 773 0.0049 - - - - -
3.3112 774 0.0166 - - - - -
3.3155 775 0.0259 - - - - -
3.3198 776 0.0373 - - - - -
3.3241 777 0.133 - - - - -
3.3283 778 0.0141 - - - - -
3.3326 779 0.0145 - - - - -
3.3369 780 0.0129 - - - - -
3.3412 781 0.0467 - - - - -
3.3455 782 0.0113 - - - - -
3.3497 783 0.0524 - - - - -
3.3540 784 0.0325 - - - - -
3.3583 785 0.0774 - - - - -
3.3626 786 0.148 - - - - -
3.3668 787 0.0173 - - - - -
3.3711 788 0.0112 - - - - -
3.3754 789 0.0314 - - - - -
3.3797 790 0.0487 - - - - -
3.3840 791 0.0683 - - - - -
3.3882 792 0.0063 - - - - -
3.3925 793 0.0427 - - - - -
3.3968 794 0.0549 - - - - -
3.4011 795 0.0452 - - - - -
3.4053 796 0.0453 - - - - -
3.4096 797 0.0527 - - - - -
3.4139 798 0.234 - - - - -
3.4182 799 0.0263 - - - - -
3.4225 800 0.022 - - - - -
3.4267 801 0.0374 - - - - -
3.4310 802 0.0139 - - - - -
3.4353 803 0.0134 - - - - -
3.4396 804 0.0286 - - - - -
3.4439 805 0.0021 - - - - -
3.4481 806 0.051 - - - - -
3.4524 807 0.2649 - - - - -
3.4567 808 0.0032 - - - - -
3.4610 809 0.0228 - - - - -
3.4652 810 0.0163 - - - - -
3.4695 811 0.0121 - - - - -
3.4738 812 0.0033 - - - - -
3.4781 813 0.0067 - - - - -
3.4824 814 0.0122 - - - - -
3.4866 815 0.0292 - - - - -
3.4909 816 0.0488 - - - - -
3.4952 817 0.025 - - - - -
3.4995 818 0.014 - - - - -
3.5037 819 0.0169 - - - - -
3.5080 820 0.0277 - - - - -
3.5123 821 0.022 - - - - -
3.5166 822 0.0187 - - - - -
3.5209 823 0.0178 - - - - -
3.5251 824 0.0265 - - - - -
3.5294 825 0.0063 - - - - -
3.5337 826 0.0154 - - - - -
3.5380 827 0.0489 - - - - -
3.5422 828 0.029 - - - - -
3.5465 829 0.0496 - - - - -
3.5508 830 0.2485 - - - - -
3.5551 831 0.0394 - - - - -
3.5594 832 0.0294 - - - - -
3.5636 833 0.0262 - - - - -
3.5679 834 0.0368 - - - - -
3.5722 835 0.0163 - - - - -
3.5765 836 0.0167 - - - - -
3.5807 837 0.01 - - - - -
3.5850 838 0.0179 - - - - -
3.5893 839 0.0493 - - - - -
3.5936 840 0.0082 - - - - -
3.5979 841 0.0109 - - - - -
3.6021 842 0.0155 - - - - -
3.6064 843 0.0117 - - - - -
3.6107 844 0.0245 - - - - -
3.6150 845 0.0306 - - - - -
3.6193 846 0.0529 - - - - -
3.6235 847 0.0731 - - - - -
3.6278 848 0.0427 - - - - -
3.6321 849 0.0039 - - - - -
3.6364 850 0.0031 - - - - -
3.6406 851 0.0151 - - - - -
3.6449 852 0.107 - - - - -
3.6492 853 0.1507 - - - - -
3.6535 854 0.0314 - - - - -
3.6578 855 0.0204 - - - - -
3.6620 856 0.0212 - - - - -
3.6663 857 0.0351 - - - - -
3.6706 858 0.0388 - - - - -
3.6749 859 0.0104 - - - - -
3.6791 860 0.0386 - - - - -
3.6834 861 0.0914 - - - - -
3.6877 862 0.0557 - - - - -
3.6920 863 0.021 - - - - -
3.6963 864 0.0176 - - - - -
3.7005 865 0.0064 - - - - -
3.7048 866 0.0292 - - - - -
3.7091 867 0.0663 - - - - -
3.7134 868 0.0363 - - - - -
3.7176 869 0.0759 - - - - -
3.7219 870 0.0693 - - - - -
3.7262 871 0.0369 - - - - -
3.7305 872 0.0396 - - - - -
3.7348 873 0.0389 - - - - -
3.7390 874 0.0331 - - - - -
3.7433 875 0.0344 - - - - -
3.7476 876 0.0155 - - - - -
3.7519 877 0.0213 - - - - -
3.7561 878 0.0939 - - - - -
3.7604 879 0.032 - - - - -
3.7647 880 0.0057 - - - - -
3.7690 881 0.0096 - - - - -
3.7733 882 0.0072 - - - - -
3.7775 883 0.0078 - - - - -
3.7818 884 0.026 - - - - -
3.7861 885 0.0838 - - - - -
3.7904 886 0.0328 - - - - -
3.7947 887 0.0164 - - - - -
3.7989 888 0.0101 - - - - -
3.8032 889 0.0144 - - - - -
3.8075 890 0.0169 - - - - -
3.8118 891 0.0752 - - - - -
3.8160 892 0.1062 - - - - -
3.8203 893 0.0816 - - - - -
3.8246 894 0.0385 - - - - -
3.8289 895 0.0174 - - - - -
3.8332 896 0.0093 - - - - -
3.8374 897 0.0117 - - - - -
3.8417 898 0.0304 - - - - -
3.8460 899 0.0103 - - - - -
3.8503 900 0.0251 - - - - -
3.8545 901 0.0352 - - - - -
3.8588 902 0.0266 - - - - -
3.8631 903 0.0085 - - - - -
3.8674 904 0.0189 - - - - -
3.8717 905 0.0349 - - - - -
3.8759 906 0.037 - - - - -
3.8802 907 0.0215 - - - - -
3.8845 908 0.0113 - - - - -
3.8888 909 0.0063 - - - - -
3.8930 910 0.0102 - - - - -
3.8973 911 0.0108 - - - - -
3.9016 912 0.0059 - - - - -
3.9059 913 0.0373 - - - - -
3.9102 914 0.0147 - - - - -
3.9144 915 0.0508 - - - - -
3.9187 916 0.0297 - - - - -
3.9230 917 0.043 - - - - -
3.9273 918 0.0066 - - - - -
3.9316 919 0.016 - - - - -
3.9358 920 0.0046 - - - - -
3.9401 921 0.0123 - - - - -
3.9444 922 0.0178 - - - - -
3.9487 923 0.044 - - - - -
3.9529 924 0.1045 - - - - -
3.9572 925 0.0353 - - - - -
3.9615 926 0.0692 - - - - -
3.9658 927 0.0108 - - - - -
3.9701 928 0.007 - - - - -
3.9743 929 0.0146 - - - - -
3.9786 930 0.0123 - - - - -
3.9829 931 0.0036 - - - - -
3.9872 932 0.0057 - - - - -
3.9914 933 0.0495 - - - - -
3.9957 934 0.0429 - - - - -
4.0 935 0.0226 0.3572 0.3768 0.3820 0.3084 0.3844
4.0043 936 0.017 - - - - -
4.0086 937 0.0392 - - - - -
4.0128 938 0.0094 - - - - -
4.0171 939 0.01 - - - - -
4.0214 940 0.0086 - - - - -
4.0257 941 0.0226 - - - - -
4.0299 942 0.0263 - - - - -
4.0342 943 0.0089 - - - - -
4.0385 944 0.0059 - - - - -
4.0428 945 0.027 - - - - -
4.0471 946 0.052 - - - - -
4.0513 947 0.0183 - - - - -
4.0556 948 0.0165 - - - - -
4.0599 949 0.0036 - - - - -
4.0642 950 0.0039 - - - - -
4.0684 951 0.0198 - - - - -
4.0727 952 0.0259 - - - - -
4.0770 953 0.0109 - - - - -
4.0813 954 0.091 - - - - -
4.0856 955 0.019 - - - - -
4.0898 956 0.0135 - - - - -
4.0941 957 0.1946 - - - - -
4.0984 958 0.0158 - - - - -
4.1027 959 0.0379 - - - - -
4.1070 960 0.0071 - - - - -
4.1112 961 0.0332 - - - - -
4.1155 962 0.0157 - - - - -
4.1198 963 0.0261 - - - - -
4.1241 964 0.0107 - - - - -
4.1283 965 0.0046 - - - - -
4.1326 966 0.0078 - - - - -
4.1369 967 0.0086 - - - - -
4.1412 968 0.0261 - - - - -
4.1455 969 0.0271 - - - - -
4.1497 970 0.009 - - - - -
4.1540 971 0.0342 - - - - -
4.1583 972 0.0561 - - - - -
4.1626 973 0.0559 - - - - -
4.1668 974 0.024 - - - - -
4.1711 975 0.0083 - - - - -
4.1754 976 0.0757 - - - - -
4.1797 977 0.0353 - - - - -
4.1840 978 0.0135 - - - - -
4.1882 979 0.0681 - - - - -
4.1925 980 0.0132 - - - - -
4.1968 981 0.0104 - - - - -
4.2011 982 0.0191 - - - - -
4.2053 983 0.0684 - - - - -
4.2096 984 0.0176 - - - - -
4.2139 985 0.0193 - - - - -
4.2182 986 0.0105 - - - - -
4.2225 987 0.0057 - - - - -
4.2267 988 0.0069 - - - - -
4.2310 989 0.0237 - - - - -
4.2353 990 0.0571 - - - - -
4.2396 991 0.0182 - - - - -
4.2439 992 0.0093 - - - - -
4.2481 993 0.0366 - - - - -
4.2524 994 0.0132 - - - - -
4.2567 995 0.0192 - - - - -
4.2610 996 0.0127 - - - - -
4.2652 997 0.0067 - - - - -
4.2695 998 0.0228 - - - - -
4.2738 999 0.0212 - - - - -
4.2781 1000 0.0061 - - - - -
4.2824 1001 0.0057 - - - - -
4.2866 1002 0.0037 - - - - -
4.2909 1003 0.0108 - - - - -
4.2952 1004 0.0089 - - - - -
4.2995 1005 0.013 - - - - -
4.3037 1006 0.0157 - - - - -
4.3080 1007 0.0101 - - - - -
4.3123 1008 0.0032 - - - - -
4.3166 1009 0.0151 - - - - -
4.3209 1010 0.0287 - - - - -
4.3251 1011 0.0192 - - - - -
4.3294 1012 0.0124 - - - - -
4.3337 1013 0.0035 - - - - -
4.3380 1014 0.0091 - - - - -
4.3422 1015 0.0477 - - - - -
4.3465 1016 0.0042 - - - - -
4.3508 1017 0.0133 - - - - -
4.3551 1018 0.013 - - - - -
4.3594 1019 0.0302 - - - - -
4.3636 1020 0.0072 - - - - -
4.3679 1021 0.011 - - - - -
4.3722 1022 0.0165 - - - - -
4.3765 1023 0.0259 - - - - -
4.3807 1024 0.0101 - - - - -
4.3850 1025 0.0132 - - - - -
4.3893 1026 0.0134 - - - - -
4.3936 1027 0.0365 - - - - -
4.3979 1028 0.0314 - - - - -
4.4021 1029 0.02 - - - - -
4.4064 1030 0.009 - - - - -
4.4107 1031 0.021 - - - - -
4.4150 1032 0.031 - - - - -
4.4193 1033 0.0116 - - - - -
4.4235 1034 0.0126 - - - - -
4.4278 1035 0.0171 - - - - -
4.4321 1036 0.0084 - - - - -
4.4364 1037 0.0101 - - - - -
4.4406 1038 0.0116 - - - - -
4.4449 1039 0.0131 - - - - -
4.4492 1040 0.0513 - - - - -
4.4535 1041 0.0487 - - - - -
4.4578 1042 0.0034 - - - - -
4.4620 1043 0.0036 - - - - -
4.4663 1044 0.0173 - - - - -
4.4706 1045 0.0071 - - - - -
4.4749 1046 0.0019 - - - - -
4.4791 1047 0.0171 - - - - -
4.4834 1048 0.0044 - - - - -
4.4877 1049 0.0397 - - - - -
4.4920 1050 0.0827 - - - - -
4.4963 1051 0.0148 - - - - -
4.5005 1052 0.0054 - - - - -
4.5048 1053 0.0141 - - - - -
4.5091 1054 0.0233 - - - - -
4.5134 1055 0.0088 - - - - -
4.5176 1056 0.0034 - - - - -
4.5219 1057 0.0145 - - - - -
4.5262 1058 0.0456 - - - - -
4.5305 1059 0.0051 - - - - -
4.5348 1060 0.0106 - - - - -
4.5390 1061 0.0114 - - - - -
4.5433 1062 0.0105 - - - - -
4.5476 1063 0.041 - - - - -
4.5519 1064 0.0776 - - - - -
4.5561 1065 0.0055 - - - - -
4.5604 1066 0.0139 - - - - -
4.5647 1067 0.0246 - - - - -
4.5690 1068 0.0127 - - - - -
4.5733 1069 0.0084 - - - - -
4.5775 1070 0.0157 - - - - -
4.5818 1071 0.0086 - - - - -
4.5861 1072 0.0129 - - - - -
4.5904 1073 0.0111 - - - - -
4.5947 1074 0.0069 - - - - -
4.5989 1075 0.006 - - - - -
4.6032 1076 0.0099 - - - - -
4.6075 1077 0.0459 - - - - -
4.6118 1078 0.0332 - - - - -
4.6160 1079 0.0317 - - - - -
4.6203 1080 0.0444 - - - - -
4.6246 1081 0.0416 - - - - -
4.6289 1082 0.0022 - - - - -
4.6332 1083 0.0023 - - - - -
4.6374 1084 0.004 - - - - -
4.6417 1085 0.0127 - - - - -
4.6460 1086 0.0664 - - - - -
4.6503 1087 0.0348 - - - - -
4.6545 1088 0.0384 - - - - -
4.6588 1089 0.0067 - - - - -
4.6631 1090 0.0136 - - - - -
4.6674 1091 0.0095 - - - - -
4.6717 1092 0.0178 - - - - -
4.6759 1093 0.0073 - - - - -
4.6802 1094 0.0435 - - - - -
4.6845 1095 0.0158 - - - - -
4.6888 1096 0.0291 - - - - -
4.6930 1097 0.0087 - - - - -
4.6973 1098 0.0152 - - - - -
4.7016 1099 0.0118 - - - - -
4.7059 1100 0.0282 - - - - -
4.7102 1101 0.085 - - - - -
4.7144 1102 0.0545 - - - - -
4.7187 1103 0.0135 - - - - -
4.7230 1104 0.0586 - - - - -
4.7273 1105 0.0332 - - - - -
4.7316 1106 0.012 - - - - -
4.7358 1107 0.0268 - - - - -
4.7401 1108 0.0208 - - - - -
4.7444 1109 0.04 - - - - -
4.7487 1110 0.0072 - - - - -
4.7529 1111 0.0238 - - - - -
4.7572 1112 0.0267 - - - - -
4.7615 1113 0.0091 - - - - -
4.7658 1114 0.0057 - - - - -
4.7701 1115 0.0045 - - - - -
4.7743 1116 0.0064 - - - - -
4.7786 1117 0.0109 - - - - -
4.7829 1118 0.0115 - - - - -
4.7872 1119 0.0308 - - - - -
4.7914 1120 0.0183 - - - - -
4.7957 1121 0.0106 - - - - -
4.8 1122 0.0085 - - - - -
4.8043 1123 0.0114 - - - - -
4.8086 1124 0.0088 - - - - -
4.8128 1125 0.0139 - - - - -
4.8171 1126 0.0688 - - - - -
4.8214 1127 0.0323 - - - - -
4.8257 1128 0.0226 - - - - -
4.8299 1129 0.0144 - - - - -
4.8342 1130 0.0043 - - - - -
4.8385 1131 0.0064 - - - - -
4.8428 1132 0.0357 - - - - -
4.8471 1133 0.0212 - - - - -
4.8513 1134 0.0231 - - - - -
4.8556 1135 0.0326 - - - - -
4.8599 1136 0.0153 - - - - -
4.8642 1137 0.0064 - - - - -
4.8684 1138 0.0134 - - - - -
4.8727 1139 0.0242 - - - - -
4.8770 1140 0.0774 - - - - -
4.8813 1141 0.023 - - - - -
4.8856 1142 0.0066 - - - - -
4.8898 1143 0.0063 - - - - -
4.8941 1144 0.0054 - - - - -
4.8984 1145 0.0079 - - - - -
4.9027 1146 0.0064 - - - - -
4.9070 1147 0.0125 - - - - -
4.9112 1148 0.0134 - - - - -
4.9155 1149 0.0185 - - - - -
4.9198 1150 0.0152 - - - - -
4.9241 1151 0.0116 - - - - -
4.9283 1152 0.0103 - - - - -
4.9326 1153 0.005 - - - - -
4.9369 1154 0.0047 - - - - -
4.9412 1155 0.0227 - - - - -
4.9455 1156 0.0225 - - - - -
4.9497 1157 0.0084 - - - - -
4.9540 1158 0.0819 - - - - -
4.9583 1159 0.0198 - - - - -
4.9626 1160 0.0204 - - - - -
4.9668 1161 0.0043 - - - - -
4.9711 1162 0.037 - - - - -
4.9754 1163 0.0128 - - - - -
4.9797 1164 0.0061 - - - - -
4.9840 1165 0.0064 0.3517 0.3731 0.3808 0.3068 0.3898
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.12.2
  • Sentence Transformers: 3.0.0
  • Transformers: 4.41.2
  • PyTorch: 2.3.1
  • Accelerate: 0.27.2
  • Datasets: 2.19.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning}, 
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
0
Safetensors
Model size
137M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for ve88ifz2/gte-base-en-v1.5-klej-dyk-v0.1

Finetuned
(9)
this model

Evaluation results