SentenceTransformer based on bkai-foundation-models/vietnamese-bi-encoder

This is a sentence-transformers model finetuned from bkai-foundation-models/vietnamese-bi-encoder on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: bkai-foundation-models/vietnamese-bi-encoder
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("anhtuansh/vietnamese-bi-encoder-Financial-Matryoshka-5e-11k")
# Run inference
sentences = [
    'thời_hạn giải_quyết việc gia_hạn thời_gian học_tập cho lưu học_sinh để hoàn_thành khóa học như sau : tối_đa 20 ngày làm_việc kể từ ngày nhận đủ hồ_sơ hợp_lệ .',
    'tôi muốn hỏi về gia_hạn thời_gian học_tập cho lưu học_sinh để hoàn_thành khóa học , có thời_hạn giải_quyết như thế_nào ?',
    'thành_phần hồ_sơ giải_quyết chế_độ hỗ_trợ đối_với người việt_nam có công với cách_mạng quy_định tại nghị_định số 102 / 2018 / nđ - cp ngày 20 / 7 / 2018 của chính_phủ về chế_độ hỗ_trợ và một_số chế_độ đãi_ngộ khác đối_với người việt_nam có công với cách_mạng , người tham_gia kháng_chiến , chiến_tranh bảo_vệ tổ_quốc và làm nhiệm_vụ quốc_tế đang định_cư ở nước_ngoài ( nghị_định số 102 / 2018 / nđ - cp ) , bao_gồm những giấy_tờ gì ?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric dim_768 dim_512 dim_256 dim_128 dim_64
cosine_accuracy@1 0.5891 0.5864 0.5829 0.5644 0.5547
cosine_accuracy@3 0.7487 0.7443 0.7328 0.7284 0.7152
cosine_accuracy@5 0.8042 0.8025 0.7901 0.7892 0.7619
cosine_accuracy@10 0.8527 0.8527 0.8554 0.8413 0.8263
cosine_precision@1 0.5891 0.5864 0.5829 0.5644 0.5547
cosine_precision@3 0.2496 0.2481 0.2443 0.2428 0.2384
cosine_precision@5 0.1608 0.1605 0.158 0.1578 0.1524
cosine_precision@10 0.0853 0.0853 0.0855 0.0841 0.0826
cosine_recall@1 0.5891 0.5864 0.5829 0.5644 0.5547
cosine_recall@3 0.7487 0.7443 0.7328 0.7284 0.7152
cosine_recall@5 0.8042 0.8025 0.7901 0.7892 0.7619
cosine_recall@10 0.8527 0.8527 0.8554 0.8413 0.8263
cosine_ndcg@10 0.7228 0.7205 0.7177 0.7036 0.6886
cosine_mrr@10 0.681 0.6781 0.6739 0.6592 0.6446
cosine_map@100 0.6861 0.6831 0.6786 0.6643 0.65

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 10,200 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 3 tokens
    • mean: 126.9 tokens
    • max: 256 tokens
    • min: 4 tokens
    • mean: 27.04 tokens
    • max: 213 tokens
  • Samples:
    positive anchor
    1 . thẩm_quyền cấp giấy_phép tổ_chức triển_lãm , hội_chợ xuất_bản_phẩm được quy_định cụ_thể như sau : - bộ thông_tin và truyền_thông cấp giấy_phép cho cơ_quan , tổ_chức ở trung_ương ; cơ_quan , tổ_chức , cá_nhân nước_ngoài ; - ủy_ban nhân_dân cấp tỉnh cấp giấy_phép cho cơ_quan , tổ_chức , cá_nhân có trụ_sở hoặc cư_trú tại địa_phương ; chi_nhánh , văn_phòng đại_diện , đơn_vị trực_thuộc cơ_quan , tổ_chức ở trung_ương đặt tại địa_phương . 2 . hồ_sơ bao_gồm : - đơn đề_nghị cấp giấy_phép trong đó ghi rõ mục_đích , thời_gian , địa_điểm và tên các đơn_vị tham_gia triển_lãm , hội_chợ ; - danh_mục xuất_bản_phẩm để triển_lãm , hội_chợ theo mẫu quy_định . ( quy_định tại khoản 2 , 3 điều 44 luật xuất_bản ) hồ_sơ và thẩm_quyền cấp giấy_phép tổ_chức triển_lãm , hội_chợ xuất_bản_phẩm được quy_định cụ_thể như thế_nào ?
    - trường_hợp mất danh_mục và phiếu theo_dõi trừ lùi thì người khai hải_quan có hồ_sơ đề_nghị cơ_quan hải_quan nơi cấp danh_mục lần đầu_đề_nghị cấp lại , bao_gồm :
    + công_văn đề_nghị cấp lại danh_mục , phiếu theo_dõi trừ lùi trong đó nêu rõ : lý_do mất danh_mục , phiếu theo_dõi trừ lùi và cam_kết của người khai hải_quan về tính chính_xác của nội_dung khai_báo ;
    + bảng kê toàn_bộ tờ khai hải_quan ( điện_tử hoặc giấy ) của số_lượng hàng_hóa đã nhập_khẩu theo danh_mục ;
    + bản danh_mục và phiếu theo_dõi trừ lùi của cơ_quan hải_quan nơi làm thủ_tục nhập_khẩu lô hàng cuối_cùng trước khi thất_lạc ( 01 bản chụp có xác_nhận của cơ_quan hải_quan nơi nhập_khẩu ) .
    - khi làm thủ_tục hải_quan , người khai hải_quan nộp , xuất_trình cho cơ_quan hải_quan nơi đăng_ký tờ khai hải_quan các hồ_sơ sau :
    + hồ_sơ hải_quan theo quy_định hiện_hành ;
    + danh_mục hàng_hóa và phiếu theo_dõi trừ lùi đã đăng_ký với cơ_quan hải_quan ( bản giao người khai hải_quan ) để cơ_quan hải_quan làm thủ_tục thực_hiện...
    trường_hợp tôi làm mất danh_mục và phiếu theo_dõi trừ lùi hàng_hóa_nhập_khẩu dung_môi n - hexan dùng trong sản_xuất khô_dầu đậu_tương và dầu thực_vật , cám gạo trích ly và dầu cám thì cần làm những thủ_tục gì ?
    thẩm_quyền cấp giấy chứng_nhận cơ_sở đủ điều_kiện đăng_kiểm tàu cá là : tổng_cục thủy_sản . thẩm_quyền cấp giấy chứng_nhận cơ_sở đủ điều_kiện đăng_kiểm tàu cá ?
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512
        ],
        "matryoshka_weights": [
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Dataset

json

  • Dataset: json
  • Size: 1,134 evaluation samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 4 tokens
    • mean: 127.89 tokens
    • max: 256 tokens
    • min: 4 tokens
    • mean: 26.48 tokens
    • max: 256 tokens
  • Samples:
    positive anchor
    việc thực_hiện thủ_tục tặng_thưởng bằng khen cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương về thành_tích đột_xuất được tiến_hành như sau :
    bước 1 . vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương tiếp_nhận đề_nghị khen_thưởng của các đơn_vị thực thuộc .
    bước 2 . thẩm_định hồ_sơ , xin ý_kiến các cơ_quan liên_quan , báo_cáo hội_đồng thi_đua khen_thưởng cùng cấp , tổng_hợp trình bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố quyết_định khen_thưởng .
    bước 3 . khi có quyết_định của bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố trực_thuộc trung_ương ; vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương thông_báo quyết_định , viết bằng , đóng_dấu và cấp_phát cho đơn_vị trình khen .
    bước 4 . các trường_hợp không được khen_thưởng ( không đúng đối_tượng , không đủ tiêu_chuẩn , không đủ ...
    đề_nghị cho biết trình_tự thực_hiện thủ_tục tặng_thưởng bằng khen cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương về thành_tích đột_xuất
    bông_thủy_tinh chống cháy là vật_liệu chống cháy , thuộc danh_mục phương_tiện pccc quy_định phụ_lục v nghị_định số 79 / 2014 / nđ - cp ngày 31 / 7 / 2014 quy_định chi_tiết thi_hành một_số điều của luật phòng cháy và chữa_cháy và luật sửa_đổi , bổ_sung một_số điều của luật phòng cháy và chữa_cháy . do đó , nếu đưa vào sử_dụng trong hạng_mục pccc của công_trình thì phải kiểm_định về pccc. tuy_nhiên , đối_với vật_liệu bông thủy_tinh cách_nhiệt chống cháy được các cơ_quan , tổ_chức , cá_nhân cần xem_xét tùy vào yêu_cầu cụ_thể của công_trình để đăng_ký kiểm_định “ tính nguy_hiểm cháy ” đối_với vật_liệu đó hoặc “ giới_hạn chịu_lửa ” của kết_cấu sử_dụng vật_liệu đó . thành_phần hồ_sơ đề_nghị kiểm_định được quy_định tại điểm a khoản 4 điều 18 thông_tư 66 / 2014 / tt - bca ngày 16 / 12 / 2014 quy_định chi_tiết thi_hành một_số điều của nghị_định số 79 / 2014 / nđ - cp ngày 31 / 7 / 2014 quy_định chi_tiết thi_hành một_số điều của luật phòng cháy và chữa_cháy và luật sửa_đổi , bổ_sung một_số điều ... bông_thủy_tinh cách_nhiệt chống cháy có phải kiểm_định không ? thành_phần hồ_sơ đề_nghị kiểm_định như thế_nào ?
    thẻ thường_trú không có thời_hạn nhưng định_kỳ 10 năm một lần , người nước_ngoài thường_trú phải đến nộp hồ_sơ tại phòng quản_lý xuất , nhập_cảnh công_an tỉnh , thành_phố trực_thuộc trung_ương để đề_nghị cấp đổi thẻ thường_trú . thẻ thường_trú có thời_hạn không ?
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512
        ],
        "matryoshka_weights": [
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • gradient_accumulation_steps: 2
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • fp16: True
  • tf32: False
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 2
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: False
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss dim_768_cosine_ndcg@10 dim_512_cosine_ndcg@10 dim_256_cosine_ndcg@10 dim_128_cosine_ndcg@10 dim_64_cosine_ndcg@10
0 0 - - 0.6499 0.6425 0.6325 0.5932 0.5425
0.0039 10 0.0084 - - - - - -
0.0078 20 0.2337 - - - - - -
0.0118 30 0.1677 - - - - - -
0.0157 40 0.0143 - - - - - -
0.0196 50 0.0616 - - - - - -
0.0235 60 0.0379 - - - - - -
0.0275 70 0.0724 - - - - - -
0.0314 80 0.1511 - - - - - -
0.0353 90 0.0037 - - - - - -
0.0392 100 0.0849 - - - - - -
0.0431 110 0.1286 - - - - - -
0.0471 120 0.0503 - - - - - -
0.0510 130 0.0091 - - - - - -
0.0549 140 0.4584 - - - - - -
0.0588 150 0.0013 - - - - - -
0.0627 160 0.042 - - - - - -
0.0667 170 0.1969 - - - - - -
0.0706 180 0.1633 - - - - - -
0.0745 190 0.0352 - - - - - -
0.0784 200 0.1725 - - - - - -
0.0824 210 0.1083 - - - - - -
0.0863 220 0.1522 - - - - - -
0.0902 230 0.0082 - - - - - -
0.0941 240 0.017 - - - - - -
0.0980 250 0.0025 - - - - - -
0.1020 260 0.081 - - - - - -
0.1059 270 0.0169 - - - - - -
0.1098 280 0.1783 - - - - - -
0.1137 290 0.0078 - - - - - -
0.1176 300 0.0461 - - - - - -
0.1216 310 0.0011 - - - - - -
0.1255 320 0.1517 - - - - - -
0.1294 330 0.0037 - - - - - -
0.1333 340 0.1278 - - - - - -
0.1373 350 0.0874 - - - - - -
0.1412 360 0.0067 - - - - - -
0.1451 370 0.0128 - - - - - -
0.1490 380 0.0079 - - - - - -
0.1529 390 0.1752 - - - - - -
0.1569 400 0.0247 - - - - - -
0.1608 410 0.0867 - - - - - -
0.1647 420 0.0184 - - - - - -
0.1686 430 0.0089 - - - - - -
0.1725 440 0.0019 - - - - - -
0.1765 450 0.0123 - - - - - -
0.1804 460 0.1347 - - - - - -
0.1843 470 0.018 - - - - - -
0.1882 480 0.1549 - - - - - -
0.1922 490 0.0103 - - - - - -
0.1961 500 0.0004 - - - - - -
0.2 510 0.088 - - - - - -
0.2039 520 0.0003 - - - - - -
0.2078 530 0.0045 - - - - - -
0.2118 540 0.0035 - - - - - -
0.2157 550 0.0019 - - - - - -
0.2196 560 0.0174 - - - - - -
0.2235 570 0.078 - - - - - -
0.2275 580 0.0013 - - - - - -
0.2314 590 0.0331 - - - - - -
0.2353 600 0.0168 - - - - - -
0.2392 610 0.0304 - - - - - -
0.2431 620 0.004 - - - - - -
0.2471 630 0.0371 - - - - - -
0.2510 640 0.216 - - - - - -
0.2549 650 0.016 - - - - - -
0.2588 660 0.0096 - - - - - -
0.2627 670 0.0015 - - - - - -
0.2667 680 0.0031 - - - - - -
0.2706 690 0.1225 - - - - - -
0.2745 700 0.0028 - - - - - -
0.2784 710 0.0133 - - - - - -
0.2824 720 0.0034 - - - - - -
0.2863 730 0.0031 - - - - - -
0.2902 740 0.0393 - - - - - -
0.2941 750 0.0011 - - - - - -
0.2980 760 0.009 - - - - - -
0.3020 770 0.0231 - - - - - -
0.3059 780 0.0024 - - - - - -
0.3098 790 0.001 - - - - - -
0.3137 800 0.0052 - - - - - -
0.3176 810 0.0627 - - - - - -
0.3216 820 0.0001 - - - - - -
0.3255 830 0.0019 - - - - - -
0.3294 840 0.0053 - - - - - -
0.3333 850 0.0011 - - - - - -
0.3373 860 0.0041 - - - - - -
0.3412 870 0.0151 - - - - - -
0.3451 880 0.0717 - - - - - -
0.3490 890 0.0023 - - - - - -
0.3529 900 0.0048 - - - - - -
0.3569 910 0.0103 - - - - - -
0.3608 920 0.016 - - - - - -
0.3647 930 0.0132 - - - - - -
0.3686 940 0.0026 - - - - - -
0.3725 950 0.0901 - - - - - -
0.3765 960 0.0131 - - - - - -
0.3804 970 0.0092 - - - - - -
0.3843 980 0.002 - - - - - -
0.3882 990 0.0268 - - - - - -
0.3922 1000 0.0078 - - - - - -
0.3961 1010 0.257 - - - - - -
0.4 1020 0.0031 - - - - - -
0.4039 1030 0.0013 - - - - - -
0.4078 1040 0.0068 - - - - - -
0.4118 1050 0.0261 - - - - - -
0.4157 1060 0.0036 - - - - - -
0.4196 1070 0.029 - - - - - -
0.4235 1080 0.02 - - - - - -
0.4275 1090 0.0208 - - - - - -
0.4314 1100 0.0027 - - - - - -
0.4353 1110 0.0004 - - - - - -
0.4392 1120 0.1056 - - - - - -
0.4431 1130 0.003 - - - - - -
0.4471 1140 0.0118 - - - - - -
0.4510 1150 0.0045 - - - - - -
0.4549 1160 0.0004 - - - - - -
0.4588 1170 0.157 - - - - - -
0.4627 1180 0.0627 - - - - - -
0.4667 1190 0.0562 - - - - - -
0.4706 1200 0.0015 - - - - - -
0.4745 1210 0.1101 - - - - - -
0.4784 1220 0.1244 - - - - - -
0.4824 1230 0.0163 - - - - - -
0.4863 1240 0.0023 - - - - - -
0.4902 1250 0.0017 - - - - - -
0.4941 1260 0.0336 - - - - - -
0.4980 1270 0.0267 - - - - - -
0.5020 1280 0.0061 - - - - - -
0.5059 1290 0.0851 - - - - - -
0.5098 1300 0.0104 - - - - - -
0.5137 1310 0.0272 - - - - - -
0.5176 1320 0.0038 - - - - - -
0.5216 1330 0.0014 - - - - - -
0.5255 1340 0.002 - - - - - -
0.5294 1350 0.015 - - - - - -
0.5333 1360 0.001 - - - - - -
0.5373 1370 0.0012 - - - - - -
0.5412 1380 0.001 - - - - - -
0.5451 1390 0.04 - - - - - -
0.5490 1400 0.0002 - - - - - -
0.5529 1410 0.0222 - - - - - -
0.5569 1420 0.1226 - - - - - -
0.5608 1430 0.0037 - - - - - -
0.5647 1440 0.0032 - - - - - -
0.5686 1450 0.0002 - - - - - -
0.5725 1460 0.0058 - - - - - -
0.5765 1470 0.2933 - - - - - -
0.5804 1480 0.0074 - - - - - -
0.5843 1490 0.0026 - - - - - -
0.5882 1500 0.0001 - - - - - -
0.5922 1510 0.004 - - - - - -
0.5961 1520 0.0002 - - - - - -
0.6 1530 0.0001 - - - - - -
0.6039 1540 0.0587 - - - - - -
0.6078 1550 0.1016 - - - - - -
0.6118 1560 0.0008 - - - - - -
0.6157 1570 0.0362 - - - - - -
0.6196 1580 0.0016 - - - - - -
0.6235 1590 0.0015 - - - - - -
0.6275 1600 0.0001 - - - - - -
0.6314 1610 0.0072 - - - - - -
0.6353 1620 0.0195 - - - - - -
0.6392 1630 0.1007 - - - - - -
0.6431 1640 0.0735 - - - - - -
0.6471 1650 0.0019 - - - - - -
0.6510 1660 0.0032 - - - - - -
0.6549 1670 0.0052 - - - - - -
0.6588 1680 0.001 - - - - - -
0.6627 1690 0.0003 - - - - - -
0.6667 1700 0.016 - - - - - -
0.6706 1710 0.0574 - - - - - -
0.6745 1720 0.0013 - - - - - -
0.6784 1730 0.0067 - - - - - -
0.6824 1740 0.1152 - - - - - -
0.6863 1750 0.0079 - - - - - -
0.6902 1760 0.0397 - - - - - -
0.6941 1770 0.0092 - - - - - -
0.6980 1780 0.0055 - - - - - -
0.7020 1790 0.0193 - - - - - -
0.7059 1800 0.0137 - - - - - -
0.7098 1810 0.0301 - - - - - -
0.7137 1820 0.0001 - - - - - -
0.7176 1830 0.0014 - - - - - -
0.7216 1840 0.0634 - - - - - -
0.7255 1850 0.0781 - - - - - -
0.7294 1860 0.0016 - - - - - -
0.7333 1870 0.0005 - - - - - -
0.7373 1880 0.0652 - - - - - -
0.7412 1890 0.0806 - - - - - -
0.7451 1900 0.0002 - - - - - -
0.7490 1910 0.0015 - - - - - -
0.7529 1920 0.0035 - - - - - -
0.7569 1930 0.0126 - - - - - -
0.7608 1940 0.0013 - - - - - -
0.7647 1950 0.007 - - - - - -
0.7686 1960 0.0003 - - - - - -
0.7725 1970 0.0006 - - - - - -
0.7765 1980 0.0956 - - - - - -
0.7804 1990 0.0005 - - - - - -
0.7843 2000 0.0002 - - - - - -
0.7882 2010 0.2992 - - - - - -
0.7922 2020 0.0763 - - - - - -
0.7961 2030 0.1548 - - - - - -
0.8 2040 0.1515 - - - - - -
0.8039 2050 0.0 - - - - - -
0.8078 2060 0.0029 - - - - - -
0.8118 2070 0.0058 - - - - - -
0.8157 2080 0.0019 - - - - - -
0.8196 2090 0.1201 - - - - - -
0.8235 2100 0.0623 - - - - - -
0.8275 2110 0.0002 - - - - - -
0.8314 2120 0.0098 - - - - - -
0.8353 2130 0.0012 - - - - - -
0.8392 2140 0.1387 - - - - - -
0.8431 2150 0.0019 - - - - - -
0.8471 2160 0.0002 - - - - - -
0.8510 2170 0.005 - - - - - -
0.8549 2180 0.004 - - - - - -
0.8588 2190 0.0082 - - - - - -
0.8627 2200 0.0017 - - - - - -
0.8667 2210 0.0004 - - - - - -
0.8706 2220 0.0005 - - - - - -
0.8745 2230 0.0523 - - - - - -
0.8784 2240 0.0004 - - - - - -
0.8824 2250 0.0008 - - - - - -
0.8863 2260 0.002 - - - - - -
0.8902 2270 0.0031 - - - - - -
0.8941 2280 0.0002 - - - - - -
0.8980 2290 0.0031 - - - - - -
0.9020 2300 0.022 - - - - - -
0.9059 2310 0.0255 - - - - - -
0.9098 2320 0.0015 - - - - - -
0.9137 2330 0.0006 - - - - - -
0.9176 2340 0.0005 - - - - - -
0.9216 2350 0.1226 - - - - - -
0.9255 2360 0.023 - - - - - -
0.9294 2370 0.0051 - - - - - -
0.9333 2380 0.0938 - - - - - -
0.9373 2390 0.0233 - - - - - -
0.9412 2400 0.0017 - - - - - -
0.9451 2410 0.0009 - - - - - -
0.9490 2420 0.0067 - - - - - -
0.9529 2430 0.0001 - - - - - -
0.9569 2440 0.0002 - - - - - -
0.9608 2450 0.0046 - - - - - -
0.9647 2460 0.1073 - - - - - -
0.9686 2470 0.0004 - - - - - -
0.9725 2480 0.009 - - - - - -
0.9765 2490 0.0016 - - - - - -
0.9804 2500 0.3166 - - - - - -
0.9843 2510 0.0392 - - - - - -
0.9882 2520 0.0654 - - - - - -
0.9922 2530 0.0208 - - - - - -
0.9961 2540 0.0814 - - - - - -
1.0 2550 0.0008 0.0337 0.6845 0.6821 0.6761 0.6566 0.6332
1.0039 2560 0.0003 - - - - - -
1.0078 2570 0.0265 - - - - - -
1.0118 2580 0.163 - - - - - -
1.0157 2590 0.0005 - - - - - -
1.0196 2600 0.0024 - - - - - -
1.0235 2610 0.0004 - - - - - -
1.0275 2620 0.0022 - - - - - -
1.0314 2630 0.154 - - - - - -
1.0353 2640 0.0298 - - - - - -
1.0392 2650 0.0116 - - - - - -
1.0431 2660 0.0086 - - - - - -
1.0471 2670 0.1355 - - - - - -
1.0510 2680 0.0004 - - - - - -
1.0549 2690 0.0422 - - - - - -
1.0588 2700 0.0011 - - - - - -
1.0627 2710 0.0095 - - - - - -
1.0667 2720 0.0193 - - - - - -
1.0706 2730 0.0062 - - - - - -
1.0745 2740 0.0001 - - - - - -
1.0784 2750 0.0093 - - - - - -
1.0824 2760 0.4353 - - - - - -
1.0863 2770 0.1219 - - - - - -
1.0902 2780 0.0027 - - - - - -
1.0941 2790 0.0009 - - - - - -
1.0980 2800 0.0003 - - - - - -
1.1020 2810 0.0005 - - - - - -
1.1059 2820 0.0149 - - - - - -
1.1098 2830 0.0979 - - - - - -
1.1137 2840 0.0001 - - - - - -
1.1176 2850 0.0119 - - - - - -
1.1216 2860 0.0023 - - - - - -
1.1255 2870 0.1086 - - - - - -
1.1294 2880 0.0026 - - - - - -
1.1333 2890 0.0056 - - - - - -
1.1373 2900 0.0009 - - - - - -
1.1412 2910 0.0001 - - - - - -
1.1451 2920 0.0136 - - - - - -
1.1490 2930 0.0005 - - - - - -
1.1529 2940 0.072 - - - - - -
1.1569 2950 0.0003 - - - - - -
1.1608 2960 0.0001 - - - - - -
1.1647 2970 0.0016 - - - - - -
1.1686 2980 0.0005 - - - - - -
1.1725 2990 0.0088 - - - - - -
1.1765 3000 0.0002 - - - - - -
1.1804 3010 0.1808 - - - - - -
1.1843 3020 0.0021 - - - - - -
1.1882 3030 0.0106 - - - - - -
1.1922 3040 0.0012 - - - - - -
1.1961 3050 0.0005 - - - - - -
1.2 3060 0.1396 - - - - - -
1.2039 3070 0.0003 - - - - - -
1.2078 3080 0.0001 - - - - - -
1.2118 3090 0.0011 - - - - - -
1.2157 3100 0.0001 - - - - - -
1.2196 3110 0.0001 - - - - - -
1.2235 3120 0.0003 - - - - - -
1.2275 3130 0.0001 - - - - - -
1.2314 3140 0.0002 - - - - - -
1.2353 3150 0.007 - - - - - -
1.2392 3160 0.0003 - - - - - -
1.2431 3170 0.0001 - - - - - -
1.2471 3180 0.0044 - - - - - -
1.2510 3190 0.0126 - - - - - -
1.2549 3200 0.01 - - - - - -
1.2588 3210 0.0001 - - - - - -
1.2627 3220 0.0007 - - - - - -
1.2667 3230 0.0003 - - - - - -
1.2706 3240 0.0001 - - - - - -
1.2745 3250 0.0005 - - - - - -
1.2784 3260 0.0114 - - - - - -
1.2824 3270 0.0 - - - - - -
1.2863 3280 0.0004 - - - - - -
1.2902 3290 0.0015 - - - - - -
1.2941 3300 0.0001 - - - - - -
1.2980 3310 0.0001 - - - - - -
1.3020 3320 0.0039 - - - - - -
1.3059 3330 0.0002 - - - - - -
1.3098 3340 0.0001 - - - - - -
1.3137 3350 0.0003 - - - - - -
1.3176 3360 0.0005 - - - - - -
1.3216 3370 0.0006 - - - - - -
1.3255 3380 0.0003 - - - - - -
1.3294 3390 0.0003 - - - - - -
1.3333 3400 0.0001 - - - - - -
1.3373 3410 0.001 - - - - - -
1.3412 3420 0.0 - - - - - -
1.3451 3430 0.0111 - - - - - -
1.3490 3440 0.0001 - - - - - -
1.3529 3450 0.0001 - - - - - -
1.3569 3460 0.0002 - - - - - -
1.3608 3470 0.0 - - - - - -
1.3647 3480 0.0 - - - - - -
1.3686 3490 0.0008 - - - - - -
1.3725 3500 0.0011 - - - - - -
1.3765 3510 0.0001 - - - - - -
1.3804 3520 0.004 - - - - - -
1.3843 3530 0.0001 - - - - - -
1.3882 3540 0.0004 - - - - - -
1.3922 3550 0.0012 - - - - - -
1.3961 3560 0.0004 - - - - - -
1.4 3570 0.0002 - - - - - -
1.4039 3580 0.0002 - - - - - -
1.4078 3590 0.0019 - - - - - -
1.4118 3600 0.0001 - - - - - -
1.4157 3610 0.0003 - - - - - -
1.4196 3620 0.0007 - - - - - -
1.4235 3630 0.0001 - - - - - -
1.4275 3640 0.0003 - - - - - -
1.4314 3650 0.0002 - - - - - -
1.4353 3660 0.0 - - - - - -
1.4392 3670 0.0001 - - - - - -
1.4431 3680 0.0002 - - - - - -
1.4471 3690 0.0084 - - - - - -
1.4510 3700 0.0001 - - - - - -
1.4549 3710 0.0001 - - - - - -
1.4588 3720 0.0001 - - - - - -
1.4627 3730 0.0001 - - - - - -
1.4667 3740 0.0001 - - - - - -
1.4706 3750 0.0001 - - - - - -
1.4745 3760 0.0006 - - - - - -
1.4784 3770 0.0001 - - - - - -
1.4824 3780 0.0006 - - - - - -
1.4863 3790 0.0001 - - - - - -
1.4902 3800 0.0001 - - - - - -
1.4941 3810 0.0 - - - - - -
1.4980 3820 0.0003 - - - - - -
1.5020 3830 0.0 - - - - - -
1.5059 3840 0.0 - - - - - -
1.5098 3850 0.0014 - - - - - -
1.5137 3860 0.0 - - - - - -
1.5176 3870 0.0002 - - - - - -
1.5216 3880 0.0005 - - - - - -
1.5255 3890 0.0 - - - - - -
1.5294 3900 0.0001 - - - - - -
1.5333 3910 0.0 - - - - - -
1.5373 3920 0.0001 - - - - - -
1.5412 3930 0.0001 - - - - - -
1.5451 3940 0.0068 - - - - - -
1.5490 3950 0.0002 - - - - - -
1.5529 3960 0.0042 - - - - - -
1.5569 3970 0.0003 - - - - - -
1.5608 3980 0.001 - - - - - -
1.5647 3990 0.0001 - - - - - -
1.5686 4000 0.0001 - - - - - -
1.5725 4010 0.0001 - - - - - -
1.5765 4020 0.0085 - - - - - -
1.5804 4030 0.0003 - - - - - -
1.5843 4040 0.0004 - - - - - -
1.5882 4050 0.0 - - - - - -
1.5922 4060 0.0005 - - - - - -
1.5961 4070 0.0004 - - - - - -
1.6 4080 0.0 - - - - - -
1.6039 4090 0.0001 - - - - - -
1.6078 4100 0.0312 - - - - - -
1.6118 4110 0.0025 - - - - - -
1.6157 4120 0.0001 - - - - - -
1.6196 4130 0.0001 - - - - - -
1.6235 4140 0.0 - - - - - -
1.6275 4150 0.0002 - - - - - -
1.6314 4160 0.0017 - - - - - -
1.6353 4170 0.0058 - - - - - -
1.6392 4180 0.0001 - - - - - -
1.6431 4190 0.001 - - - - - -
1.6471 4200 0.0001 - - - - - -
1.6510 4210 0.0002 - - - - - -
1.6549 4220 0.0 - - - - - -
1.6588 4230 0.0001 - - - - - -
1.6627 4240 0.0001 - - - - - -
1.6667 4250 0.0001 - - - - - -
1.6706 4260 0.0002 - - - - - -
1.6745 4270 0.0 - - - - - -
1.6784 4280 0.0001 - - - - - -
1.6824 4290 0.005 - - - - - -
1.6863 4300 0.0 - - - - - -
1.6902 4310 0.0 - - - - - -
1.6941 4320 0.0 - - - - - -
1.6980 4330 0.0 - - - - - -
1.7020 4340 0.002 - - - - - -
1.7059 4350 0.0012 - - - - - -
1.7098 4360 0.0001 - - - - - -
1.7137 4370 0.001 - - - - - -
1.7176 4380 0.0002 - - - - - -
1.7216 4390 0.0001 - - - - - -
1.7255 4400 0.0001 - - - - - -
1.7294 4410 0.0001 - - - - - -
1.7333 4420 0.0001 - - - - - -
1.7373 4430 0.0 - - - - - -
1.7412 4440 0.0006 - - - - - -
1.7451 4450 0.0 - - - - - -
1.7490 4460 0.0001 - - - - - -
1.7529 4470 0.0001 - - - - - -
1.7569 4480 0.0 - - - - - -
1.7608 4490 0.0001 - - - - - -
1.7647 4500 0.002 - - - - - -
1.7686 4510 0.0 - - - - - -
1.7725 4520 0.0008 - - - - - -
1.7765 4530 0.0003 - - - - - -
1.7804 4540 0.0 - - - - - -
1.7843 4550 0.0 - - - - - -
1.7882 4560 0.0003 - - - - - -
1.7922 4570 0.0001 - - - - - -
1.7961 4580 0.0004 - - - - - -
1.8 4590 0.0005 - - - - - -
1.8039 4600 0.0018 - - - - - -
1.8078 4610 0.0001 - - - - - -
1.8118 4620 0.0001 - - - - - -
1.8157 4630 0.0002 - - - - - -
1.8196 4640 0.0001 - - - - - -
1.8235 4650 0.002 - - - - - -
1.8275 4660 0.0 - - - - - -
1.8314 4670 0.0002 - - - - - -
1.8353 4680 0.0001 - - - - - -
1.8392 4690 0.0 - - - - - -
1.8431 4700 0.0 - - - - - -
1.8471 4710 0.0003 - - - - - -
1.8510 4720 0.0 - - - - - -
1.8549 4730 0.0001 - - - - - -
1.8588 4740 0.0003 - - - - - -
1.8627 4750 0.0001 - - - - - -
1.8667 4760 0.0 - - - - - -
1.8706 4770 0.0002 - - - - - -
1.8745 4780 0.0007 - - - - - -
1.8784 4790 0.0002 - - - - - -
1.8824 4800 0.0001 - - - - - -
1.8863 4810 0.0 - - - - - -
1.8902 4820 0.0 - - - - - -
1.8941 4830 0.0 - - - - - -
1.8980 4840 0.0 - - - - - -
1.9020 4850 0.0027 - - - - - -
1.9059 4860 0.0001 - - - - - -
1.9098 4870 0.0 - - - - - -
1.9137 4880 0.0 - - - - - -
1.9176 4890 0.0001 - - - - - -
1.9216 4900 0.0559 - - - - - -
1.9255 4910 0.0063 - - - - - -
1.9294 4920 0.0001 - - - - - -
1.9333 4930 0.1013 - - - - - -
1.9373 4940 0.0242 - - - - - -
1.9412 4950 0.0001 - - - - - -
1.9451 4960 0.0003 - - - - - -
1.9490 4970 0.0016 - - - - - -
1.9529 4980 0.0007 - - - - - -
1.9569 4990 0.0001 - - - - - -
1.9608 5000 0.0002 - - - - - -
1.9647 5010 0.0001 - - - - - -
1.9686 5020 0.0001 - - - - - -
1.9725 5030 0.0001 - - - - - -
1.9765 5040 0.0001 - - - - - -
1.9804 5050 0.0013 - - - - - -
1.9843 5060 0.0002 - - - - - -
1.9882 5070 0.0001 - - - - - -
1.9922 5080 0.0001 - - - - - -
1.9961 5090 0.0001 - - - - - -
2.0 5100 0.0005 0.0259 0.7097 0.7102 0.7032 0.6921 0.6684
2.0039 5110 0.0 - - - - - -
2.0078 5120 0.0005 - - - - - -
2.0118 5130 0.0005 - - - - - -
2.0157 5140 0.0001 - - - - - -
2.0196 5150 0.0001 - - - - - -
2.0235 5160 0.0 - - - - - -
2.0275 5170 0.0 - - - - - -
2.0314 5180 0.0006 - - - - - -
2.0353 5190 0.0 - - - - - -
2.0392 5200 0.0002 - - - - - -
2.0431 5210 0.0001 - - - - - -
2.0471 5220 0.0008 - - - - - -
2.0510 5230 0.0002 - - - - - -
2.0549 5240 0.0008 - - - - - -
2.0588 5250 0.0 - - - - - -
2.0627 5260 0.0038 - - - - - -
2.0667 5270 0.0001 - - - - - -
2.0706 5280 0.0004 - - - - - -
2.0745 5290 0.0001 - - - - - -
2.0784 5300 0.0021 - - - - - -
2.0824 5310 0.0255 - - - - - -
2.0863 5320 0.0257 - - - - - -
2.0902 5330 0.0003 - - - - - -
2.0941 5340 0.0002 - - - - - -
2.0980 5350 0.0 - - - - - -
2.1020 5360 0.0001 - - - - - -
2.1059 5370 0.0039 - - - - - -
2.1098 5380 0.0001 - - - - - -
2.1137 5390 0.0001 - - - - - -
2.1176 5400 0.0006 - - - - - -
2.1216 5410 0.0005 - - - - - -
2.1255 5420 0.0065 - - - - - -
2.1294 5430 0.0001 - - - - - -
2.1333 5440 0.0004 - - - - - -
2.1373 5450 0.0005 - - - - - -
2.1412 5460 0.0003 - - - - - -
2.1451 5470 0.0051 - - - - - -
2.1490 5480 0.0 - - - - - -
2.1529 5490 0.0001 - - - - - -
2.1569 5500 0.0002 - - - - - -
2.1608 5510 0.0003 - - - - - -
2.1647 5520 0.0004 - - - - - -
2.1686 5530 0.0 - - - - - -
2.1725 5540 0.0 - - - - - -
2.1765 5550 0.0002 - - - - - -
2.1804 5560 0.0081 - - - - - -
2.1843 5570 0.0001 - - - - - -
2.1882 5580 0.0 - - - - - -
2.1922 5590 0.0001 - - - - - -
2.1961 5600 0.0003 - - - - - -
2.2 5610 0.0014 - - - - - -
2.2039 5620 0.0001 - - - - - -
2.2078 5630 0.0 - - - - - -
2.2118 5640 0.0001 - - - - - -
2.2157 5650 0.0001 - - - - - -
2.2196 5660 0.0001 - - - - - -
2.2235 5670 0.0001 - - - - - -
2.2275 5680 0.0005 - - - - - -
2.2314 5690 0.0001 - - - - - -
2.2353 5700 0.0001 - - - - - -
2.2392 5710 0.0007 - - - - - -
2.2431 5720 0.0 - - - - - -
2.2471 5730 0.0003 - - - - - -
2.2510 5740 0.0007 - - - - - -
2.2549 5750 0.0001 - - - - - -
2.2588 5760 0.0002 - - - - - -
2.2627 5770 0.0 - - - - - -
2.2667 5780 0.0 - - - - - -
2.2706 5790 0.0001 - - - - - -
2.2745 5800 0.0 - - - - - -
2.2784 5810 0.0001 - - - - - -
2.2824 5820 0.0 - - - - - -
2.2863 5830 0.0 - - - - - -
2.2902 5840 0.0001 - - - - - -
2.2941 5850 0.0 - - - - - -
2.2980 5860 0.0001 - - - - - -
2.3020 5870 0.0 - - - - - -
2.3059 5880 0.0001 - - - - - -
2.3098 5890 0.0005 - - - - - -
2.3137 5900 0.0001 - - - - - -
2.3176 5910 0.0002 - - - - - -
2.3216 5920 0.0 - - - - - -
2.3255 5930 0.0001 - - - - - -
2.3294 5940 0.0006 - - - - - -
2.3333 5950 0.0 - - - - - -
2.3373 5960 0.0001 - - - - - -
2.3412 5970 0.0005 - - - - - -
2.3451 5980 0.0246 - - - - - -
2.3490 5990 0.0 - - - - - -
2.3529 6000 0.0 - - - - - -
2.3569 6010 0.0002 - - - - - -
2.3608 6020 0.0 - - - - - -
2.3647 6030 0.0001 - - - - - -
2.3686 6040 0.0002 - - - - - -
2.3725 6050 0.0002 - - - - - -
2.3765 6060 0.0001 - - - - - -
2.3804 6070 0.0001 - - - - - -
2.3843 6080 0.0002 - - - - - -
2.3882 6090 0.0002 - - - - - -
2.3922 6100 0.0 - - - - - -
2.3961 6110 0.0 - - - - - -
2.4 6120 0.0 - - - - - -
2.4039 6130 0.0 - - - - - -
2.4078 6140 0.0001 - - - - - -
2.4118 6150 0.0001 - - - - - -
2.4157 6160 0.0001 - - - - - -
2.4196 6170 0.0 - - - - - -
2.4235 6180 0.0002 - - - - - -
2.4275 6190 0.0 - - - - - -
2.4314 6200 0.0 - - - - - -
2.4353 6210 0.0002 - - - - - -
2.4392 6220 0.0001 - - - - - -
2.4431 6230 0.0 - - - - - -
2.4471 6240 0.0002 - - - - - -
2.4510 6250 0.0 - - - - - -
2.4549 6260 0.0 - - - - - -
2.4588 6270 0.0 - - - - - -
2.4627 6280 0.0 - - - - - -
2.4667 6290 0.0 - - - - - -
2.4706 6300 0.0 - - - - - -
2.4745 6310 0.0 - - - - - -
2.4784 6320 0.0 - - - - - -
2.4824 6330 0.0001 - - - - - -
2.4863 6340 0.0002 - - - - - -
2.4902 6350 0.0003 - - - - - -
2.4941 6360 0.0 - - - - - -
2.4980 6370 0.0015 - - - - - -
2.5020 6380 0.0 - - - - - -
2.5059 6390 0.0 - - - - - -
2.5098 6400 0.0001 - - - - - -
2.5137 6410 0.0 - - - - - -
2.5176 6420 0.0025 - - - - - -
2.5216 6430 0.0001 - - - - - -
2.5255 6440 0.0001 - - - - - -
2.5294 6450 0.0002 - - - - - -
2.5333 6460 0.0 - - - - - -
2.5373 6470 0.0002 - - - - - -
2.5412 6480 0.0001 - - - - - -
2.5451 6490 0.0002 - - - - - -
2.5490 6500 0.0 - - - - - -
2.5529 6510 0.0001 - - - - - -
2.5569 6520 0.0001 - - - - - -
2.5608 6530 0.0001 - - - - - -
2.5647 6540 0.0 - - - - - -
2.5686 6550 0.0 - - - - - -
2.5725 6560 0.0003 - - - - - -
2.5765 6570 0.0001 - - - - - -
2.5804 6580 0.0 - - - - - -
2.5843 6590 0.0 - - - - - -
2.5882 6600 0.0 - - - - - -
2.5922 6610 0.0001 - - - - - -
2.5961 6620 0.0001 - - - - - -
2.6 6630 0.0 - - - - - -
2.6039 6640 0.0001 - - - - - -
2.6078 6650 0.009 - - - - - -
2.6118 6660 0.0 - - - - - -
2.6157 6670 0.0 - - - - - -
2.6196 6680 0.0001 - - - - - -
2.6235 6690 0.0 - - - - - -
2.6275 6700 0.0001 - - - - - -
2.6314 6710 0.0002 - - - - - -
2.6353 6720 0.0001 - - - - - -
2.6392 6730 0.0007 - - - - - -
2.6431 6740 0.0001 - - - - - -
2.6471 6750 0.0 - - - - - -
2.6510 6760 0.0002 - - - - - -
2.6549 6770 0.001 - - - - - -
2.6588 6780 0.0 - - - - - -
2.6627 6790 0.0 - - - - - -
2.6667 6800 0.0003 - - - - - -
2.6706 6810 0.0 - - - - - -
2.6745 6820 0.0 - - - - - -
2.6784 6830 0.0 - - - - - -
2.6824 6840 0.0001 - - - - - -
2.6863 6850 0.0002 - - - - - -
2.6902 6860 0.0001 - - - - - -
2.6941 6870 0.0001 - - - - - -
2.6980 6880 0.0 - - - - - -
2.7020 6890 0.0002 - - - - - -
2.7059 6900 0.0 - - - - - -
2.7098 6910 0.0 - - - - - -
2.7137 6920 0.0 - - - - - -
2.7176 6930 0.0001 - - - - - -
2.7216 6940 0.0001 - - - - - -
2.7255 6950 0.0 - - - - - -
2.7294 6960 0.0 - - - - - -
2.7333 6970 0.0001 - - - - - -
2.7373 6980 0.0 - - - - - -
2.7412 6990 0.0001 - - - - - -
2.7451 7000 0.0 - - - - - -
2.7490 7010 0.0001 - - - - - -
2.7529 7020 0.0 - - - - - -
2.7569 7030 0.0001 - - - - - -
2.7608 7040 0.0 - - - - - -
2.7647 7050 0.0002 - - - - - -
2.7686 7060 0.0 - - - - - -
2.7725 7070 0.0 - - - - - -
2.7765 7080 0.0 - - - - - -
2.7804 7090 0.0 - - - - - -
2.7843 7100 0.0 - - - - - -
2.7882 7110 0.0003 - - - - - -
2.7922 7120 0.0002 - - - - - -
2.7961 7130 0.0002 - - - - - -
2.8 7140 0.0002 - - - - - -
2.8039 7150 0.0 - - - - - -
2.8078 7160 0.0001 - - - - - -
2.8118 7170 0.0001 - - - - - -
2.8157 7180 0.0 - - - - - -
2.8196 7190 0.0 - - - - - -
2.8235 7200 0.0 - - - - - -
2.8275 7210 0.0 - - - - - -
2.8314 7220 0.0001 - - - - - -
2.8353 7230 0.0 - - - - - -
2.8392 7240 0.0 - - - - - -
2.8431 7250 0.0 - - - - - -
2.8471 7260 0.0 - - - - - -
2.8510 7270 0.0 - - - - - -
2.8549 7280 0.0001 - - - - - -
2.8588 7290 0.0 - - - - - -
2.8627 7300 0.0 - - - - - -
2.8667 7310 0.0 - - - - - -
2.8706 7320 0.0 - - - - - -
2.8745 7330 0.0001 - - - - - -
2.8784 7340 0.0 - - - - - -
2.8824 7350 0.0 - - - - - -
2.8863 7360 0.0 - - - - - -
2.8902 7370 0.0004 - - - - - -
2.8941 7380 0.0 - - - - - -
2.8980 7390 0.0 - - - - - -
2.9020 7400 0.0001 - - - - - -
2.9059 7410 0.0 - - - - - -
2.9098 7420 0.0 - - - - - -
2.9137 7430 0.0001 - - - - - -
2.9176 7440 0.0001 - - - - - -
2.9216 7450 0.0631 - - - - - -
2.9255 7460 0.0193 - - - - - -
2.9294 7470 0.0003 - - - - - -
2.9333 7480 0.0414 - - - - - -
2.9373 7490 0.0001 - - - - - -
2.9412 7500 0.0001 - - - - - -
2.9451 7510 0.0 - - - - - -
2.9490 7520 0.0001 - - - - - -
2.9529 7530 0.0 - - - - - -
2.9569 7540 0.0005 - - - - - -
2.9608 7550 0.0002 - - - - - -
2.9647 7560 0.0001 - - - - - -
2.9686 7570 0.0 - - - - - -
2.9725 7580 0.0 - - - - - -
2.9765 7590 0.0001 - - - - - -
2.9804 7600 0.0002 - - - - - -
2.9843 7610 0.0002 - - - - - -
2.9882 7620 0.0 - - - - - -
2.9922 7630 0.0 - - - - - -
2.9961 7640 0.0007 - - - - - -
3.0 7650 0.0 0.0193 0.7115 0.7081 0.7010 0.6981 0.6736
3.0039 7660 0.0 - - - - - -
3.0078 7670 0.0003 - - - - - -
3.0118 7680 0.0001 - - - - - -
3.0157 7690 0.0 - - - - - -
3.0196 7700 0.0001 - - - - - -
3.0235 7710 0.0 - - - - - -
3.0275 7720 0.0 - - - - - -
3.0314 7730 0.0001 - - - - - -
3.0353 7740 0.0 - - - - - -
3.0392 7750 0.0001 - - - - - -
3.0431 7760 0.0002 - - - - - -
3.0471 7770 0.0 - - - - - -
3.0510 7780 0.0015 - - - - - -
3.0549 7790 0.0 - - - - - -
3.0588 7800 0.0 - - - - - -
3.0627 7810 0.0 - - - - - -
3.0667 7820 0.0003 - - - - - -
3.0706 7830 0.0 - - - - - -
3.0745 7840 0.0 - - - - - -
3.0784 7850 0.0 - - - - - -
3.0824 7860 0.0 - - - - - -
3.0863 7870 0.0002 - - - - - -
3.0902 7880 0.0 - - - - - -
3.0941 7890 0.0002 - - - - - -
3.0980 7900 0.0 - - - - - -
3.1020 7910 0.0 - - - - - -
3.1059 7920 0.0 - - - - - -
3.1098 7930 0.0001 - - - - - -
3.1137 7940 0.0001 - - - - - -
3.1176 7950 0.0001 - - - - - -
3.1216 7960 0.0001 - - - - - -
3.1255 7970 0.0037 - - - - - -
3.1294 7980 0.0 - - - - - -
3.1333 7990 0.0 - - - - - -
3.1373 8000 0.0001 - - - - - -
3.1412 8010 0.0 - - - - - -
3.1451 8020 0.0 - - - - - -
3.1490 8030 0.0 - - - - - -
3.1529 8040 0.0001 - - - - - -
3.1569 8050 0.0 - - - - - -
3.1608 8060 0.0 - - - - - -
3.1647 8070 0.0 - - - - - -
3.1686 8080 0.0001 - - - - - -
3.1725 8090 0.0 - - - - - -
3.1765 8100 0.0 - - - - - -
3.1804 8110 0.0001 - - - - - -
3.1843 8120 0.0 - - - - - -
3.1882 8130 0.0002 - - - - - -
3.1922 8140 0.0001 - - - - - -
3.1961 8150 0.0 - - - - - -
3.2 8160 0.0001 - - - - - -
3.2039 8170 0.0 - - - - - -
3.2078 8180 0.0 - - - - - -
3.2118 8190 0.0001 - - - - - -
3.2157 8200 0.0 - - - - - -
3.2196 8210 0.0001 - - - - - -
3.2235 8220 0.0001 - - - - - -
3.2275 8230 0.0 - - - - - -
3.2314 8240 0.0 - - - - - -
3.2353 8250 0.0 - - - - - -
3.2392 8260 0.0 - - - - - -
3.2431 8270 0.0 - - - - - -
3.2471 8280 0.0 - - - - - -
3.2510 8290 0.0 - - - - - -
3.2549 8300 0.0001 - - - - - -
3.2588 8310 0.0 - - - - - -
3.2627 8320 0.0 - - - - - -
3.2667 8330 0.0 - - - - - -
3.2706 8340 0.0 - - - - - -
3.2745 8350 0.0 - - - - - -
3.2784 8360 0.0 - - - - - -
3.2824 8370 0.0 - - - - - -
3.2863 8380 0.0 - - - - - -
3.2902 8390 0.0 - - - - - -
3.2941 8400 0.0 - - - - - -
3.2980 8410 0.0 - - - - - -
3.3020 8420 0.0 - - - - - -
3.3059 8430 0.0 - - - - - -
3.3098 8440 0.0 - - - - - -
3.3137 8450 0.0 - - - - - -
3.3176 8460 0.0 - - - - - -
3.3216 8470 0.0001 - - - - - -
3.3255 8480 0.0 - - - - - -
3.3294 8490 0.0003 - - - - - -
3.3333 8500 0.0 - - - - - -
3.3373 8510 0.0 - - - - - -
3.3412 8520 0.0 - - - - - -
3.3451 8530 0.0 - - - - - -
3.3490 8540 0.0 - - - - - -
3.3529 8550 0.0 - - - - - -
3.3569 8560 0.0001 - - - - - -
3.3608 8570 0.0 - - - - - -
3.3647 8580 0.0001 - - - - - -
3.3686 8590 0.0 - - - - - -
3.3725 8600 0.0 - - - - - -
3.3765 8610 0.0001 - - - - - -
3.3804 8620 0.0001 - - - - - -
3.3843 8630 0.0 - - - - - -
3.3882 8640 0.0 - - - - - -
3.3922 8650 0.0 - - - - - -
3.3961 8660 0.0 - - - - - -
3.4 8670 0.0 - - - - - -
3.4039 8680 0.0 - - - - - -
3.4078 8690 0.0 - - - - - -
3.4118 8700 0.0002 - - - - - -
3.4157 8710 0.0 - - - - - -
3.4196 8720 0.0 - - - - - -
3.4235 8730 0.0 - - - - - -
3.4275 8740 0.0 - - - - - -
3.4314 8750 0.0 - - - - - -
3.4353 8760 0.0 - - - - - -
3.4392 8770 0.0001 - - - - - -
3.4431 8780 0.0 - - - - - -
3.4471 8790 0.0001 - - - - - -
3.4510 8800 0.0 - - - - - -
3.4549 8810 0.0 - - - - - -
3.4588 8820 0.0 - - - - - -
3.4627 8830 0.0 - - - - - -
3.4667 8840 0.0001 - - - - - -
3.4706 8850 0.0 - - - - - -
3.4745 8860 0.0 - - - - - -
3.4784 8870 0.0 - - - - - -
3.4824 8880 0.0 - - - - - -
3.4863 8890 0.0 - - - - - -
3.4902 8900 0.0 - - - - - -
3.4941 8910 0.0 - - - - - -
3.4980 8920 0.0 - - - - - -
3.5020 8930 0.0 - - - - - -
3.5059 8940 0.0 - - - - - -
3.5098 8950 0.0 - - - - - -
3.5137 8960 0.0 - - - - - -
3.5176 8970 0.0 - - - - - -
3.5216 8980 0.0 - - - - - -
3.5255 8990 0.0 - - - - - -
3.5294 9000 0.0 - - - - - -
3.5333 9010 0.0001 - - - - - -
3.5373 9020 0.0 - - - - - -
3.5412 9030 0.0 - - - - - -
3.5451 9040 0.0 - - - - - -
3.5490 9050 0.0 - - - - - -
3.5529 9060 0.0 - - - - - -
3.5569 9070 0.0001 - - - - - -
3.5608 9080 0.0 - - - - - -
3.5647 9090 0.0 - - - - - -
3.5686 9100 0.0 - - - - - -
3.5725 9110 0.0 - - - - - -
3.5765 9120 0.0 - - - - - -
3.5804 9130 0.0 - - - - - -
3.5843 9140 0.0 - - - - - -
3.5882 9150 0.0 - - - - - -
3.5922 9160 0.0001 - - - - - -
3.5961 9170 0.0 - - - - - -
3.6 9180 0.0 - - - - - -
3.6039 9190 0.0 - - - - - -
3.6078 9200 0.0002 - - - - - -
3.6118 9210 0.0 - - - - - -
3.6157 9220 0.0 - - - - - -
3.6196 9230 0.0 - - - - - -
3.6235 9240 0.0 - - - - - -
3.6275 9250 0.0 - - - - - -
3.6314 9260 0.0 - - - - - -
3.6353 9270 0.0 - - - - - -
3.6392 9280 0.0 - - - - - -
3.6431 9290 0.0 - - - - - -
3.6471 9300 0.0 - - - - - -
3.6510 9310 0.0 - - - - - -
3.6549 9320 0.0 - - - - - -
3.6588 9330 0.0 - - - - - -
3.6627 9340 0.0 - - - - - -
3.6667 9350 0.0003 - - - - - -
3.6706 9360 0.0 - - - - - -
3.6745 9370 0.0 - - - - - -
3.6784 9380 0.0 - - - - - -
3.6824 9390 0.0 - - - - - -
3.6863 9400 0.0 - - - - - -
3.6902 9410 0.0 - - - - - -
3.6941 9420 0.0 - - - - - -
3.6980 9430 0.0 - - - - - -
3.7020 9440 0.0 - - - - - -
3.7059 9450 0.0 - - - - - -
3.7098 9460 0.0 - - - - - -
3.7137 9470 0.0 - - - - - -
3.7176 9480 0.0 - - - - - -
3.7216 9490 0.0 - - - - - -
3.7255 9500 0.0 - - - - - -
3.7294 9510 0.0 - - - - - -
3.7333 9520 0.0 - - - - - -
3.7373 9530 0.0 - - - - - -
3.7412 9540 0.0 - - - - - -
3.7451 9550 0.0 - - - - - -
3.7490 9560 0.0 - - - - - -
3.7529 9570 0.0 - - - - - -
3.7569 9580 0.0 - - - - - -
3.7608 9590 0.0 - - - - - -
3.7647 9600 0.0 - - - - - -
3.7686 9610 0.0 - - - - - -
3.7725 9620 0.0 - - - - - -
3.7765 9630 0.0 - - - - - -
3.7804 9640 0.0 - - - - - -
3.7843 9650 0.0 - - - - - -
3.7882 9660 0.0 - - - - - -
3.7922 9670 0.0 - - - - - -
3.7961 9680 0.0 - - - - - -
3.8 9690 0.0001 - - - - - -
3.8039 9700 0.0 - - - - - -
3.8078 9710 0.0001 - - - - - -
3.8118 9720 0.0 - - - - - -
3.8157 9730 0.0 - - - - - -
3.8196 9740 0.0 - - - - - -
3.8235 9750 0.0 - - - - - -
3.8275 9760 0.0 - - - - - -
3.8314 9770 0.0 - - - - - -
3.8353 9780 0.0 - - - - - -
3.8392 9790 0.0 - - - - - -
3.8431 9800 0.0 - - - - - -
3.8471 9810 0.0 - - - - - -
3.8510 9820 0.0 - - - - - -
3.8549 9830 0.0 - - - - - -
3.8588 9840 0.0 - - - - - -
3.8627 9850 0.0 - - - - - -
3.8667 9860 0.0 - - - - - -
3.8706 9870 0.0001 - - - - - -
3.8745 9880 0.0001 - - - - - -
3.8784 9890 0.0 - - - - - -
3.8824 9900 0.0 - - - - - -
3.8863 9910 0.0 - - - - - -
3.8902 9920 0.0 - - - - - -
3.8941 9930 0.0 - - - - - -
3.8980 9940 0.0 - - - - - -
3.9020 9950 0.0 - - - - - -
3.9059 9960 0.0 - - - - - -
3.9098 9970 0.0 - - - - - -
3.9137 9980 0.0 - - - - - -
3.9176 9990 0.0 - - - - - -
3.9216 10000 0.0899 - - - - - -
3.9255 10010 0.0 - - - - - -
3.9294 10020 0.0 - - - - - -
3.9333 10030 0.0 - - - - - -
3.9373 10040 0.0 - - - - - -
3.9412 10050 0.0 - - - - - -
3.9451 10060 0.0 - - - - - -
3.9490 10070 0.0 - - - - - -
3.9529 10080 0.0 - - - - - -
3.9569 10090 0.0 - - - - - -
3.9608 10100 0.0 - - - - - -
3.9647 10110 0.0 - - - - - -
3.9686 10120 0.0 - - - - - -
3.9725 10130 0.0 - - - - - -
3.9765 10140 0.0 - - - - - -
3.9804 10150 0.0 - - - - - -
3.9843 10160 0.0 - - - - - -
3.9882 10170 0.0 - - - - - -
3.9922 10180 0.0 - - - - - -
3.9961 10190 0.0 - - - - - -
4.0 10200 0.0 0.0255 0.7195 0.7180 0.7145 0.7015 0.6867
4.0039 10210 0.0 - - - - - -
4.0078 10220 0.0 - - - - - -
4.0118 10230 0.0 - - - - - -
4.0157 10240 0.0 - - - - - -
4.0196 10250 0.0 - - - - - -
4.0235 10260 0.0001 - - - - - -
4.0275 10270 0.0 - - - - - -
4.0314 10280 0.0 - - - - - -
4.0353 10290 0.0 - - - - - -
4.0392 10300 0.0 - - - - - -
4.0431 10310 0.0 - - - - - -
4.0471 10320 0.0 - - - - - -
4.0510 10330 0.0 - - - - - -
4.0549 10340 0.0 - - - - - -
4.0588 10350 0.0 - - - - - -
4.0627 10360 0.0 - - - - - -
4.0667 10370 0.0 - - - - - -
4.0706 10380 0.0 - - - - - -
4.0745 10390 0.0 - - - - - -
4.0784 10400 0.0 - - - - - -
4.0824 10410 0.0 - - - - - -
4.0863 10420 0.0 - - - - - -
4.0902 10430 0.0 - - - - - -
4.0941 10440 0.0 - - - - - -
4.0980 10450 0.0 - - - - - -
4.1020 10460 0.0 - - - - - -
4.1059 10470 0.0 - - - - - -
4.1098 10480 0.0 - - - - - -
4.1137 10490 0.0 - - - - - -
4.1176 10500 0.0 - - - - - -
4.1216 10510 0.0002 - - - - - -
4.1255 10520 0.0 - - - - - -
4.1294 10530 0.0 - - - - - -
4.1333 10540 0.0 - - - - - -
4.1373 10550 0.0 - - - - - -
4.1412 10560 0.0 - - - - - -
4.1451 10570 0.0 - - - - - -
4.1490 10580 0.0 - - - - - -
4.1529 10590 0.0 - - - - - -
4.1569 10600 0.0 - - - - - -
4.1608 10610 0.0 - - - - - -
4.1647 10620 0.0 - - - - - -
4.1686 10630 0.0 - - - - - -
4.1725 10640 0.0 - - - - - -
4.1765 10650 0.0 - - - - - -
4.1804 10660 0.0 - - - - - -
4.1843 10670 0.0 - - - - - -
4.1882 10680 0.0 - - - - - -
4.1922 10690 0.0 - - - - - -
4.1961 10700 0.0 - - - - - -
4.2 10710 0.0 - - - - - -
4.2039 10720 0.0 - - - - - -
4.2078 10730 0.0 - - - - - -
4.2118 10740 0.0 - - - - - -
4.2157 10750 0.0 - - - - - -
4.2196 10760 0.0 - - - - - -
4.2235 10770 0.0 - - - - - -
4.2275 10780 0.0 - - - - - -
4.2314 10790 0.0 - - - - - -
4.2353 10800 0.0 - - - - - -
4.2392 10810 0.0 - - - - - -
4.2431 10820 0.0 - - - - - -
4.2471 10830 0.0 - - - - - -
4.2510 10840 0.0 - - - - - -
4.2549 10850 0.0 - - - - - -
4.2588 10860 0.0 - - - - - -
4.2627 10870 0.0 - - - - - -
4.2667 10880 0.0 - - - - - -
4.2706 10890 0.0 - - - - - -
4.2745 10900 0.0 - - - - - -
4.2784 10910 0.0 - - - - - -
4.2824 10920 0.0 - - - - - -
4.2863 10930 0.0 - - - - - -
4.2902 10940 0.0 - - - - - -
4.2941 10950 0.0 - - - - - -
4.2980 10960 0.0 - - - - - -
4.3020 10970 0.0 - - - - - -
4.3059 10980 0.0 - - - - - -
4.3098 10990 0.0 - - - - - -
4.3137 11000 0.0 - - - - - -
4.3176 11010 0.0 - - - - - -
4.3216 11020 0.0 - - - - - -
4.3255 11030 0.0 - - - - - -
4.3294 11040 0.0 - - - - - -
4.3333 11050 0.0 - - - - - -
4.3373 11060 0.0 - - - - - -
4.3412 11070 0.0 - - - - - -
4.3451 11080 0.0 - - - - - -
4.3490 11090 0.0 - - - - - -
4.3529 11100 0.0 - - - - - -
4.3569 11110 0.0 - - - - - -
4.3608 11120 0.0 - - - - - -
4.3647 11130 0.0 - - - - - -
4.3686 11140 0.0 - - - - - -
4.3725 11150 0.0 - - - - - -
4.3765 11160 0.0 - - - - - -
4.3804 11170 0.0 - - - - - -
4.3843 11180 0.0 - - - - - -
4.3882 11190 0.0 - - - - - -
4.3922 11200 0.0 - - - - - -
4.3961 11210 0.0 - - - - - -
4.4 11220 0.0 - - - - - -
4.4039 11230 0.0 - - - - - -
4.4078 11240 0.0 - - - - - -
4.4118 11250 0.0 - - - - - -
4.4157 11260 0.0 - - - - - -
4.4196 11270 0.0 - - - - - -
4.4235 11280 0.0 - - - - - -
4.4275 11290 0.0 - - - - - -
4.4314 11300 0.0 - - - - - -
4.4353 11310 0.0 - - - - - -
4.4392 11320 0.0 - - - - - -
4.4431 11330 0.0 - - - - - -
4.4471 11340 0.0 - - - - - -
4.4510 11350 0.0 - - - - - -
4.4549 11360 0.0 - - - - - -
4.4588 11370 0.0 - - - - - -
4.4627 11380 0.0 - - - - - -
4.4667 11390 0.0 - - - - - -
4.4706 11400 0.0 - - - - - -
4.4745 11410 0.0 - - - - - -
4.4784 11420 0.0 - - - - - -
4.4824 11430 0.0 - - - - - -
4.4863 11440 0.0 - - - - - -
4.4902 11450 0.0 - - - - - -
4.4941 11460 0.0 - - - - - -
4.4980 11470 0.0 - - - - - -
4.5020 11480 0.0 - - - - - -
4.5059 11490 0.0 - - - - - -
4.5098 11500 0.0 - - - - - -
4.5137 11510 0.0 - - - - - -
4.5176 11520 0.0 - - - - - -
4.5216 11530 0.0 - - - - - -
4.5255 11540 0.0 - - - - - -
4.5294 11550 0.0 - - - - - -
4.5333 11560 0.0 - - - - - -
4.5373 11570 0.0 - - - - - -
4.5412 11580 0.0 - - - - - -
4.5451 11590 0.0 - - - - - -
4.5490 11600 0.0 - - - - - -
4.5529 11610 0.0 - - - - - -
4.5569 11620 0.0 - - - - - -
4.5608 11630 0.0 - - - - - -
4.5647 11640 0.0 - - - - - -
4.5686 11650 0.0 - - - - - -
4.5725 11660 0.0 - - - - - -
4.5765 11670 0.0 - - - - - -
4.5804 11680 0.0 - - - - - -
4.5843 11690 0.0 - - - - - -
4.5882 11700 0.0 - - - - - -
4.5922 11710 0.0 - - - - - -
4.5961 11720 0.0 - - - - - -
4.6 11730 0.0 - - - - - -
4.6039 11740 0.0001 - - - - - -
4.6078 11750 0.0 - - - - - -
4.6118 11760 0.0 - - - - - -
4.6157 11770 0.0 - - - - - -
4.6196 11780 0.0 - - - - - -
4.6235 11790 0.0 - - - - - -
4.6275 11800 0.0 - - - - - -
4.6314 11810 0.0 - - - - - -
4.6353 11820 0.0 - - - - - -
4.6392 11830 0.0 - - - - - -
4.6431 11840 0.0 - - - - - -
4.6471 11850 0.0 - - - - - -
4.6510 11860 0.0 - - - - - -
4.6549 11870 0.0 - - - - - -
4.6588 11880 0.0 - - - - - -
4.6627 11890 0.0 - - - - - -
4.6667 11900 0.0 - - - - - -
4.6706 11910 0.0 - - - - - -
4.6745 11920 0.0 - - - - - -
4.6784 11930 0.0 - - - - - -
4.6824 11940 0.0 - - - - - -
4.6863 11950 0.0 - - - - - -
4.6902 11960 0.0 - - - - - -
4.6941 11970 0.0 - - - - - -
4.6980 11980 0.0 - - - - - -
4.7020 11990 0.0 - - - - - -
4.7059 12000 0.0 - - - - - -
4.7098 12010 0.0 - - - - - -
4.7137 12020 0.0 - - - - - -
4.7176 12030 0.0 - - - - - -
4.7216 12040 0.0 - - - - - -
4.7255 12050 0.0 - - - - - -
4.7294 12060 0.0 - - - - - -
4.7333 12070 0.0 - - - - - -
4.7373 12080 0.0 - - - - - -
4.7412 12090 0.0 - - - - - -
4.7451 12100 0.0 - - - - - -
4.7490 12110 0.0 - - - - - -
4.7529 12120 0.0 - - - - - -
4.7569 12130 0.0 - - - - - -
4.7608 12140 0.0 - - - - - -
4.7647 12150 0.0 - - - - - -
4.7686 12160 0.0 - - - - - -
4.7725 12170 0.0 - - - - - -
4.7765 12180 0.0 - - - - - -
4.7804 12190 0.0 - - - - - -
4.7843 12200 0.0 - - - - - -
4.7882 12210 0.0 - - - - - -
4.7922 12220 0.0 - - - - - -
4.7961 12230 0.0 - - - - - -
4.8 12240 0.0 - - - - - -
4.8039 12250 0.0 - - - - - -
4.8078 12260 0.0 - - - - - -
4.8118 12270 0.0 - - - - - -
4.8157 12280 0.0 - - - - - -
4.8196 12290 0.0 - - - - - -
4.8235 12300 0.0 - - - - - -
4.8275 12310 0.0 - - - - - -
4.8314 12320 0.0 - - - - - -
4.8353 12330 0.0 - - - - - -
4.8392 12340 0.0 - - - - - -
4.8431 12350 0.0 - - - - - -
4.8471 12360 0.0 - - - - - -
4.8510 12370 0.0 - - - - - -
4.8549 12380 0.0 - - - - - -
4.8588 12390 0.0 - - - - - -
4.8627 12400 0.0 - - - - - -
4.8667 12410 0.0 - - - - - -
4.8706 12420 0.0 - - - - - -
4.8745 12430 0.0 - - - - - -
4.8784 12440 0.0 - - - - - -
4.8824 12450 0.0 - - - - - -
4.8863 12460 0.0001 - - - - - -
4.8902 12470 0.0 - - - - - -
4.8941 12480 0.0 - - - - - -
4.8980 12490 0.0 - - - - - -
4.9020 12500 0.0 - - - - - -
4.9059 12510 0.0 - - - - - -
4.9098 12520 0.0 - - - - - -
4.9137 12530 0.0 - - - - - -
4.9176 12540 0.0 - - - - - -
4.9216 12550 0.2073 - - - - - -
4.9255 12560 0.0 - - - - - -
4.9294 12570 0.0 - - - - - -
4.9333 12580 0.0 - - - - - -
4.9373 12590 0.0 - - - - - -
4.9412 12600 0.0 - - - - - -
4.9451 12610 0.0 - - - - - -
4.9490 12620 0.0 - - - - - -
4.9529 12630 0.0 - - - - - -
4.9569 12640 0.0 - - - - - -
4.9608 12650 0.0 - - - - - -
4.9647 12660 0.0 - - - - - -
4.9686 12670 0.0 - - - - - -
4.9725 12680 0.0 - - - - - -
4.9765 12690 0.0 - - - - - -
4.9804 12700 0.0 - - - - - -
4.9843 12710 0.0 - - - - - -
4.9882 12720 0.0 - - - - - -
4.9922 12730 0.0 - - - - - -
4.9961 12740 0.0 - - - - - -
5.0 12750 0.0 0.0251 0.7228 0.7205 0.7177 0.7036 0.6886
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.3.1
  • Transformers: 4.41.2
  • PyTorch: 2.1.2
  • Accelerate: 0.29.3
  • Datasets: 2.19.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
23
Safetensors
Model size
135M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for anhtuansh/vietnamese-bi-encoder-Financial-Matryoshka-5e-11k

Finetuned
(25)
this model

Evaluation results