minhdang commited on
Commit
06e0b7a
1 Parent(s): a46d26a

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,927 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:107510
8
+ - loss:MatryoshkaLoss
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
11
+ widget:
12
+ - source_sentence: '[''Hình thức xử phạt và thời hiệu xử phạt vi phạm hành chính\n...\n4.
13
+ Thời hiệu xử phạt vi phạm hành chính đối với lĩnh vực kinh doanh xổ số:\na) Thời
14
+ hiệu xử phạt vi phạm hành chính trong lĩnh vực kinh doanh xổ số là 01 năm.\nb)
15
+ Đối với hành vi vi phạm hành chính trong lĩnh vực kinh doanh xổ số đang được thực
16
+ hiện thì thời hiệu được tính từ ngày người có thẩm quyền thi hành công vụ phát
17
+ hiện hành vi vi phạm. Đối với hành vi vi phạm hành chính đã kết thúc thì thời
18
+ hiệu được tính từ ngày chấm dứt hành vi vi phạm. Thời điểm chấm dứt hành vi vi
19
+ phạm để tính thời hiệu xử phạt đối với một số hành vi vi phạm tại Chương 3 Nghị
20
+ định này được quy định như sau:\n- Đối với hành vi sửa chữa, tẩy xoá làm thay
21
+ đổi nội dung Giấy chứng nhận đủ điều kiện kinh doanh, các tài liệu trong hồ sơ
22
+ đã được làm đại lý xổ số quy định tại khoản 1 Điều 35 và khoản 1 Điều 41 Nghị
23
+ định này nếu không xác định được ngày sửa chữa, tẩy xoá làm thay đổi nội dung
24
+ Giấy chứng nhận đủ điều kiện kinh doanh, các tài liệu trong hồ sơ đã được làm
25
+ đại lý xổ số thì thời điểm chấm dứt hành vi vi phạm là ngày phát hiện Giấy chứng
26
+ nhận đủ điều kiện kinh doanh bị sửa chữa, tẩy xóa làm thay đổi nội dung;\n- Đối
27
+ với hành vi không xây dựng và ban hành quy chế quy định chi tiết quy trình tổ
28
+ chức thu hồi vé xổ số không tiêu thụ hết, không xây dựng và công bố công khai
29
+ thể lệ quay số mở thưởng, không ban hành Quy chế quản lý, khai thác dữ liệu máy
30
+ chủ kinh doanh xổ số điện toán quy định tại khoản 1 Điều 40, khoản 1 Điều 44 và
31
+ khoản 1 Điều 49 Nghị định này, thời điểm chấm dứt hành vi vi phạm là ngày thực
32
+ hiện ban hành quy chế quy định chi tiết quy trình tổ chức thu hồi vé xổ số không
33
+ tiêu thụ hết, công bố công khai thể lệ quay số mở thưởng, ban hành Quy chế quản
34
+ lý, khai thác dữ liệu máy chủ kinh doanh xổ số điện toán;\n- Đối với hành vi vi
35
+ phạm quy định về chế độ báo cáo quy định tại Điều 51 Nghị định này, thời điểm
36
+ chấm dứt hành vi vi phạm là ngày thực hiện báo cáo.'']'
37
+ sentences:
38
+ - Hình thức đấu giá bằng bỏ phiếu gián tiếp được pháp luật quy định như thế nào?
39
+ - Thường trực Hội đồng tư vấn đặc xá là cơ quan nào?
40
+ - Thời hiệu xử phạt cơ sở kinh doanh xổ số phát hành vé xổ số quá hạn mức là bao
41
+ lâu?
42
+ - source_sentence: "['Thanh lý hợp đồng thực hiện nhiệm vụ\\nCăn cứ Hồ sơ đề nghị\
43
+ \ nghiệm thu, thanh lý hợp đồng thực hiện nhiệm vụ của cơ quan chủ trì thực hiện,\
44
+ \ việc thanh lý hợp đồng đã ký kết trong thời hạn 10 ngày được thực hiện kể từ\
45
+ \ ngày cơ quan quản lý nhiệm vụ tiếp nhận đầy đủ sản phẩm đã được chỉnh sửa theo\
46
+ \ ý kiến của Hội đồng nghiệm thu nhiệm vụ cấp Bộ.\\nĐối với các nhiệm vụ thường\
47
+ \ xuyên hàng năm quy định tại điểm b, điểm h, điểm k khoản 1 Điều 3 Thông tư này\
48
+ \ được cơ quan quản lý nhiệm vụ xác nhận hoàn thành thì văn bản xác nhận hoàn\
49
+ \ thành nhiệm vụ là căn cứ nghiệm thu, thanh lý nhiệm vụ của cơ quan chủ trì thực\
50
+ \ hiện.\\nBiên bản nghiệm thu và thanh lý hợp đồng đối với các nhiệm vụ ký hợp\
51
+ \ đồng thực hiện theo mẫu B3a-HĐMT được quy định tại mẫu B6a-BBTLMT. Biên bản\
52
+ \ nghiệm thu và thanh lý hợp đồng đối với các nhiệm vụ ký hợp đồng thực hiện theo\
53
+ \ mẫu B3b-HĐBĐKH được quy định tại mẫu B6b-BBTLBĐKH.'\n 'Thanh lý hợp đồng nhiệm\
54
+ \ vụ bảo vệ môi trường\\nCăn cứ Biên bản nghiệm thu kết quả thực hiện nhiệm vụ\
55
+ \ bảo vệ môi trường, việc thanh lý hợp đồng đã ký kết với đơn vị chủ trì trong\
56
+ \ thời hạn 10 ngày được thực hiện kể từ ngày tiếp nhận đầy đủ sản phẩm đã được\
57
+ \ chỉnh sửa theo ý kiến của Hội đồng nghiệm thu nhiệm vụ bảo vệ môi trường. Biên\
58
+ \ bản thanh lý hợp đồng được quy định tại mẫu B6a-BBTLHĐ-BCT.']"
59
+ sentences:
60
+ - Tổn thương gân chày trước chủ yếu gặp trong các vết thương ở vùng nào?
61
+ - Hội đồng Lý luận Trung ương họp mỗi quý mấy lần?
62
+ - Thời hạn thanh lý hợp đồng nhiệm vụ bảo vệ môi trường ngành Công thương sử dụng
63
+ nguồn kinh phí sự nghiệp môi trường là bao lâu?
64
+ - source_sentence: '[''Đối tượng áp dụng\n1. Cán bộ, công chức của các đơn vị thuộc
65
+ Ủy ban Dân tộc được Bộ trưởng, Chủ nhiệm Ủy ban Dân tộc (sau đây gọi tắt là Bộ
66
+ trưởng, Chủ nhiệm) giao nhiệm vụ hoặc phân công làm nhiệm vụ tiếp công dân, xử
67
+ lý đơn khiếu nại, tố cáo, kiến nghị, phản ánh tại trụ sở và các địa điểm tiếp
68
+ công dân thuộc Ủy ban Dân tộc.\n2. Bộ trưởng, Chủ nhiệm, các Thứ trưởng, Phó Chủ
69
+ nhiệm Ủy ban Dân tộc có trách nhiệm tiếp công dân định kỳ hoặc đột xuất; công
70
+ chức trong các đơn vị thuộc Ủy ban Dân tộc được Bộ trưởng, Chủ nhiệm triệu tập
71
+ làm nhiệm vụ tiếp công dân, xử lý đơn khiếu nại, tố cáo, kiến nghị, phản ánh tại
72
+ trụ sở và các địa điểm tiếp công dân thuộc Ủy ban Dân tộc.\n3. Công chức, người
73
+ tham gia tiếp công dân thuộc Ủy ban Dân tộc được Bộ trưởng, Chủ nhiệm giao nhiệm
74
+ vụ hoặc phân công phối hợp tiếp công dân, giữ gìn an ninh, trật tự, bảo đảm y
75
+ tế tại trụ sở và các địa điểm tiếp công dân của Ủy ban Dân tộc.\n4. Cán bộ, công
76
+ chức của các tổ chức thuộc Ủy ban Dân tộc được Bộ trưởng, Chủ nhiệm giao nhiệm
77
+ vụ chuyên trách xử lý đơn khiếu nại, tố cáo, kiến nghị, phản ánh.'']'
78
+ sentences:
79
+ - Công chức của đơn vị có được hưởng chế độ bồi dưỡng khi nhận nhiệm vụ tiếp công
80
+ dân tại các địa điểm tiếp công dân thuộc Ủy ban Dân tộc hay không?
81
+ - Người trúng xổ số Vietlott có được bảo mật thông tin trước đại chúng?
82
+ - Việc công bố giá trị doanh nghiệp được cơ quan đại diện chủ sở hữu thực hiện trong
83
+ thời hạn bao nhiêu ngày? Kể từ thời điểm nào?
84
+ - source_sentence: '[''Hình thức tổ chức, nội dung và chương trình đào tạo nghiệp
85
+ vụ thẩm định giá\n1. Khóa đào tạo nghiệp vụ thẩm định giá được tổ chức tập trung
86
+ một kỳ liên tục hoặc nhiều kỳ nhưng không kéo dài quá 3 (ba) tháng cho một khóa
87
+ học và phải đảm bảo dạy và học đủ thời lượng, nội dung và chương trình theo quy
88
+ định tại khoản 2 Điều này.\n...'']'
89
+ sentences:
90
+ - Thời gian áp dụng biện pháp cách ly y tế được pháp luật quy định như thế nào?
91
+ - Khi thực hiện khuyến mại cung ứng dịch vụ thông tin di động mẫu để khách hàng
92
+ dùng thử không phải trả tiền, doanh nghiệp viễn thông có cần đăng ký khuyến mại
93
+ không?
94
+ - Một khóa đào tạo nghiệp vụ thẩm định giá kéo dài bao lâu?
95
+ - source_sentence: '[''Tiêu chuẩn Chi cục trưởng, Phó Chi cục trưởng thuộc Cục Thuế\n1.
96
+ Vị trí và nhiệm vụ\na) Chi cục trưởng Chi cục Thuế là người đứng đầu Chi cục Thuế,
97
+ chịu trách nhiệm trước Cục trưởng Cục Thuế và trước pháp luật về toàn bộ hoạt
98
+ động nhiệm vụ của đơn vị được cấp có thẩm quyền giao nhiệm vụ quản lý nhà nước
99
+ trên địa bàn quận, huyện, thị xã, thành phố thuộc tỉnh.\nb) Phó Chi cục trưởng
100
+ Chi cục Thuế là người giúp việc Chi cục trưởng, chịu trách nhiệm trước Chi cục
101
+ trưởng và trước pháp luật về lĩnh vực công tác được phân công; thay mặt Chi cục
102
+ trưởng điều hành, giải quyết các công việc của Chi cục khi được Chi cục trưởng
103
+ ủy quyền, giao nhiệm vụ.'']'
104
+ sentences:
105
+ - Nhiệm vụ của Chi cục trưởng thuộc Cục Thuế như thế nào?
106
+ - Việc đánh giá chất lượng dịch vụ sự nghiệp công về xây dựng cơ sở dữ liệu được
107
+ thực hiện theo phương thức nào?
108
+ - Khoản phụ cấp chuyên cần có tính vào lương để tính tiền lương tăng ca, lương làm
109
+ thêm giờ hay không?
110
+ pipeline_tag: sentence-similarity
111
+ library_name: sentence-transformers
112
+ metrics:
113
+ - cosine_accuracy@1
114
+ - cosine_accuracy@3
115
+ - cosine_accuracy@5
116
+ - cosine_accuracy@10
117
+ - cosine_precision@1
118
+ - cosine_precision@3
119
+ - cosine_precision@5
120
+ - cosine_precision@10
121
+ - cosine_recall@1
122
+ - cosine_recall@3
123
+ - cosine_recall@5
124
+ - cosine_recall@10
125
+ - cosine_ndcg@10
126
+ - cosine_mrr@10
127
+ - cosine_map@100
128
+ model-index:
129
+ - name: SentenceTransformer based on bkai-foundation-models/vietnamese-bi-encoder
130
+ results:
131
+ - task:
132
+ type: information-retrieval
133
+ name: Information Retrieval
134
+ dataset:
135
+ name: dim 768
136
+ type: dim_768
137
+ metrics:
138
+ - type: cosine_accuracy@1
139
+ value: 0.26527708019420726
140
+ name: Cosine Accuracy@1
141
+ - type: cosine_accuracy@3
142
+ value: 0.4377197388247112
143
+ name: Cosine Accuracy@3
144
+ - type: cosine_accuracy@5
145
+ value: 0.5174116859199732
146
+ name: Cosine Accuracy@5
147
+ - type: cosine_accuracy@10
148
+ value: 0.6099112673698309
149
+ name: Cosine Accuracy@10
150
+ - type: cosine_precision@1
151
+ value: 0.26527708019420726
152
+ name: Cosine Precision@1
153
+ - type: cosine_precision@3
154
+ value: 0.14590657960823708
155
+ name: Cosine Precision@3
156
+ - type: cosine_precision@5
157
+ value: 0.10348233718399463
158
+ name: Cosine Precision@5
159
+ - type: cosine_precision@10
160
+ value: 0.060991126736983085
161
+ name: Cosine Precision@10
162
+ - type: cosine_recall@1
163
+ value: 0.26527708019420726
164
+ name: Cosine Recall@1
165
+ - type: cosine_recall@3
166
+ value: 0.4377197388247112
167
+ name: Cosine Recall@3
168
+ - type: cosine_recall@5
169
+ value: 0.5174116859199732
170
+ name: Cosine Recall@5
171
+ - type: cosine_recall@10
172
+ value: 0.6099112673698309
173
+ name: Cosine Recall@10
174
+ - type: cosine_ndcg@10
175
+ value: 0.4285225723707542
176
+ name: Cosine Ndcg@10
177
+ - type: cosine_mrr@10
178
+ value: 0.37149118785859175
179
+ name: Cosine Mrr@10
180
+ - type: cosine_map@100
181
+ value: 0.38082252053876386
182
+ name: Cosine Map@100
183
+ - task:
184
+ type: information-retrieval
185
+ name: Information Retrieval
186
+ dataset:
187
+ name: dim 512
188
+ type: dim_512
189
+ metrics:
190
+ - type: cosine_accuracy@1
191
+ value: 0.26586305039343716
192
+ name: Cosine Accuracy@1
193
+ - type: cosine_accuracy@3
194
+ value: 0.43227858697471955
195
+ name: Cosine Accuracy@3
196
+ - type: cosine_accuracy@5
197
+ value: 0.5082872928176796
198
+ name: Cosine Accuracy@5
199
+ - type: cosine_accuracy@10
200
+ value: 0.6015402645236899
201
+ name: Cosine Accuracy@10
202
+ - type: cosine_precision@1
203
+ value: 0.26586305039343716
204
+ name: Cosine Precision@1
205
+ - type: cosine_precision@3
206
+ value: 0.1440928623249065
207
+ name: Cosine Precision@3
208
+ - type: cosine_precision@5
209
+ value: 0.1016574585635359
210
+ name: Cosine Precision@5
211
+ - type: cosine_precision@10
212
+ value: 0.06015402645236899
213
+ name: Cosine Precision@10
214
+ - type: cosine_recall@1
215
+ value: 0.26586305039343716
216
+ name: Cosine Recall@1
217
+ - type: cosine_recall@3
218
+ value: 0.43227858697471955
219
+ name: Cosine Recall@3
220
+ - type: cosine_recall@5
221
+ value: 0.5082872928176796
222
+ name: Cosine Recall@5
223
+ - type: cosine_recall@10
224
+ value: 0.6015402645236899
225
+ name: Cosine Recall@10
226
+ - type: cosine_ndcg@10
227
+ value: 0.4244877080296015
228
+ name: Cosine Ndcg@10
229
+ - type: cosine_mrr@10
230
+ value: 0.36887667785457956
231
+ name: Cosine Mrr@10
232
+ - type: cosine_map@100
233
+ value: 0.3780890557065138
234
+ name: Cosine Map@100
235
+ - task:
236
+ type: information-retrieval
237
+ name: Information Retrieval
238
+ dataset:
239
+ name: dim 256
240
+ type: dim_256
241
+ metrics:
242
+ - type: cosine_accuracy@1
243
+ value: 0.2483676544450025
244
+ name: Cosine Accuracy@1
245
+ - type: cosine_accuracy@3
246
+ value: 0.4107651096601373
247
+ name: Cosine Accuracy@3
248
+ - type: cosine_accuracy@5
249
+ value: 0.4801607232546459
250
+ name: Cosine Accuracy@5
251
+ - type: cosine_accuracy@10
252
+ value: 0.5700652938222
253
+ name: Cosine Accuracy@10
254
+ - type: cosine_precision@1
255
+ value: 0.2483676544450025
256
+ name: Cosine Precision@1
257
+ - type: cosine_precision@3
258
+ value: 0.13692170322004574
259
+ name: Cosine Precision@3
260
+ - type: cosine_precision@5
261
+ value: 0.09603214465092917
262
+ name: Cosine Precision@5
263
+ - type: cosine_precision@10
264
+ value: 0.05700652938221999
265
+ name: Cosine Precision@10
266
+ - type: cosine_recall@1
267
+ value: 0.2483676544450025
268
+ name: Cosine Recall@1
269
+ - type: cosine_recall@3
270
+ value: 0.4107651096601373
271
+ name: Cosine Recall@3
272
+ - type: cosine_recall@5
273
+ value: 0.4801607232546459
274
+ name: Cosine Recall@5
275
+ - type: cosine_recall@10
276
+ value: 0.5700652938222
277
+ name: Cosine Recall@10
278
+ - type: cosine_ndcg@10
279
+ value: 0.40061709420771235
280
+ name: Cosine Ndcg@10
281
+ - type: cosine_mrr@10
282
+ value: 0.34734958105124125
283
+ name: Cosine Mrr@10
284
+ - type: cosine_map@100
285
+ value: 0.35675125361493826
286
+ name: Cosine Map@100
287
+ - task:
288
+ type: information-retrieval
289
+ name: Information Retrieval
290
+ dataset:
291
+ name: dim 128
292
+ type: dim_128
293
+ metrics:
294
+ - type: cosine_accuracy@1
295
+ value: 0.22141302528042858
296
+ name: Cosine Accuracy@1
297
+ - type: cosine_accuracy@3
298
+ value: 0.3701657458563536
299
+ name: Cosine Accuracy@3
300
+ - type: cosine_accuracy@5
301
+ value: 0.4385568391093253
302
+ name: Cosine Accuracy@5
303
+ - type: cosine_accuracy@10
304
+ value: 0.5179976561192031
305
+ name: Cosine Accuracy@10
306
+ - type: cosine_precision@1
307
+ value: 0.22141302528042858
308
+ name: Cosine Precision@1
309
+ - type: cosine_precision@3
310
+ value: 0.12338858195211787
311
+ name: Cosine Precision@3
312
+ - type: cosine_precision@5
313
+ value: 0.08771136782186506
314
+ name: Cosine Precision@5
315
+ - type: cosine_precision@10
316
+ value: 0.051799765611920304
317
+ name: Cosine Precision@10
318
+ - type: cosine_recall@1
319
+ value: 0.22141302528042858
320
+ name: Cosine Recall@1
321
+ - type: cosine_recall@3
322
+ value: 0.3701657458563536
323
+ name: Cosine Recall@3
324
+ - type: cosine_recall@5
325
+ value: 0.4385568391093253
326
+ name: Cosine Recall@5
327
+ - type: cosine_recall@10
328
+ value: 0.5179976561192031
329
+ name: Cosine Recall@10
330
+ - type: cosine_ndcg@10
331
+ value: 0.3619435400628976
332
+ name: Cosine Ndcg@10
333
+ - type: cosine_mrr@10
334
+ value: 0.3128400221632284
335
+ name: Cosine Mrr@10
336
+ - type: cosine_map@100
337
+ value: 0.32179789892986727
338
+ name: Cosine Map@100
339
+ - task:
340
+ type: information-retrieval
341
+ name: Information Retrieval
342
+ dataset:
343
+ name: dim 64
344
+ type: dim_64
345
+ metrics:
346
+ - type: cosine_accuracy@1
347
+ value: 0.1616440649589821
348
+ name: Cosine Accuracy@1
349
+ - type: cosine_accuracy@3
350
+ value: 0.27749874434957306
351
+ name: Cosine Accuracy@3
352
+ - type: cosine_accuracy@5
353
+ value: 0.33433785367487023
354
+ name: Cosine Accuracy@5
355
+ - type: cosine_accuracy@10
356
+ value: 0.4103465595178302
357
+ name: Cosine Accuracy@10
358
+ - type: cosine_precision@1
359
+ value: 0.1616440649589821
360
+ name: Cosine Precision@1
361
+ - type: cosine_precision@3
362
+ value: 0.09249958144985769
363
+ name: Cosine Precision@3
364
+ - type: cosine_precision@5
365
+ value: 0.06686757073497404
366
+ name: Cosine Precision@5
367
+ - type: cosine_precision@10
368
+ value: 0.04103465595178302
369
+ name: Cosine Precision@10
370
+ - type: cosine_recall@1
371
+ value: 0.1616440649589821
372
+ name: Cosine Recall@1
373
+ - type: cosine_recall@3
374
+ value: 0.27749874434957306
375
+ name: Cosine Recall@3
376
+ - type: cosine_recall@5
377
+ value: 0.33433785367487023
378
+ name: Cosine Recall@5
379
+ - type: cosine_recall@10
380
+ value: 0.4103465595178302
381
+ name: Cosine Recall@10
382
+ - type: cosine_ndcg@10
383
+ value: 0.27713659801328827
384
+ name: Cosine Ndcg@10
385
+ - type: cosine_mrr@10
386
+ value: 0.23557945277558567
387
+ name: Cosine Mrr@10
388
+ - type: cosine_map@100
389
+ value: 0.24398402076434567
390
+ name: Cosine Map@100
391
+ ---
392
+
393
+ # SentenceTransformer based on bkai-foundation-models/vietnamese-bi-encoder
394
+
395
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
396
+
397
+ ## Model Details
398
+
399
+ ### Model Description
400
+ - **Model Type:** Sentence Transformer
401
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
402
+ - **Maximum Sequence Length:** 256 tokens
403
+ - **Output Dimensionality:** 768 tokens
404
+ - **Similarity Function:** Cosine Similarity
405
+ - **Training Dataset:**
406
+ - json
407
+ <!-- - **Language:** Unknown -->
408
+ <!-- - **License:** Unknown -->
409
+
410
+ ### Model Sources
411
+
412
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
413
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
414
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
415
+
416
+ ### Full Model Architecture
417
+
418
+ ```
419
+ SentenceTransformer(
420
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
421
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
422
+ )
423
+ ```
424
+
425
+ ## Usage
426
+
427
+ ### Direct Usage (Sentence Transformers)
428
+
429
+ First install the Sentence Transformers library:
430
+
431
+ ```bash
432
+ pip install -U sentence-transformers
433
+ ```
434
+
435
+ Then you can load this model and run inference.
436
+ ```python
437
+ from sentence_transformers import SentenceTransformer
438
+
439
+ # Download from the 🤗 Hub
440
+ model = SentenceTransformer("minhdang/bge-base-financial-matryoshka")
441
+ # Run inference
442
+ sentences = [
443
+ "['Tiêu chuẩn Chi cục trưởng, Phó Chi cục trưởng thuộc Cục Thuế\\n1. Vị trí và nhiệm vụ\\na) Chi cục trưởng Chi cục Thuế là người đứng đầu Chi cục Thuế, chịu trách nhiệm trước Cục trưởng Cục Thuế và trước pháp luật về toàn bộ hoạt động nhiệm vụ của đơn vị được cấp có thẩm quyền giao nhiệm vụ quản lý nhà nước trên địa bàn quận, huyện, thị xã, thành phố thuộc tỉnh.\\nb) Phó Chi cục trưởng Chi cục Thuế là người giúp việc Chi cục trưởng, chịu trách nhiệm trước Chi cục trưởng và trước pháp luật về lĩnh vực công tác được phân công; thay mặt Chi cục trưởng điều hành, giải quyết các công việc của Chi cục khi được Chi cục trưởng ủy quyền, giao nhiệm vụ.']",
444
+ 'Nhiệm vụ của Chi cục trưởng thuộc Cục Thuế như thế nào?',
445
+ 'Khoản phụ cấp chuyên cần có tính vào lương để tính tiền lương tăng ca, lương làm thêm giờ hay không?',
446
+ ]
447
+ embeddings = model.encode(sentences)
448
+ print(embeddings.shape)
449
+ # [3, 768]
450
+
451
+ # Get the similarity scores for the embeddings
452
+ similarities = model.similarity(embeddings, embeddings)
453
+ print(similarities.shape)
454
+ # [3, 3]
455
+ ```
456
+
457
+ <!--
458
+ ### Direct Usage (Transformers)
459
+
460
+ <details><summary>Click to see the direct usage in Transformers</summary>
461
+
462
+ </details>
463
+ -->
464
+
465
+ <!--
466
+ ### Downstream Usage (Sentence Transformers)
467
+
468
+ You can finetune this model on your own dataset.
469
+
470
+ <details><summary>Click to expand</summary>
471
+
472
+ </details>
473
+ -->
474
+
475
+ <!--
476
+ ### Out-of-Scope Use
477
+
478
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
479
+ -->
480
+
481
+ ## Evaluation
482
+
483
+ ### Metrics
484
+
485
+ #### Information Retrieval
486
+ * Dataset: `dim_768`
487
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
488
+
489
+ | Metric | Value |
490
+ |:--------------------|:-----------|
491
+ | cosine_accuracy@1 | 0.2653 |
492
+ | cosine_accuracy@3 | 0.4377 |
493
+ | cosine_accuracy@5 | 0.5174 |
494
+ | cosine_accuracy@10 | 0.6099 |
495
+ | cosine_precision@1 | 0.2653 |
496
+ | cosine_precision@3 | 0.1459 |
497
+ | cosine_precision@5 | 0.1035 |
498
+ | cosine_precision@10 | 0.061 |
499
+ | cosine_recall@1 | 0.2653 |
500
+ | cosine_recall@3 | 0.4377 |
501
+ | cosine_recall@5 | 0.5174 |
502
+ | cosine_recall@10 | 0.6099 |
503
+ | cosine_ndcg@10 | 0.4285 |
504
+ | cosine_mrr@10 | 0.3715 |
505
+ | **cosine_map@100** | **0.3808** |
506
+
507
+ #### Information Retrieval
508
+ * Dataset: `dim_512`
509
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
510
+
511
+ | Metric | Value |
512
+ |:--------------------|:-----------|
513
+ | cosine_accuracy@1 | 0.2659 |
514
+ | cosine_accuracy@3 | 0.4323 |
515
+ | cosine_accuracy@5 | 0.5083 |
516
+ | cosine_accuracy@10 | 0.6015 |
517
+ | cosine_precision@1 | 0.2659 |
518
+ | cosine_precision@3 | 0.1441 |
519
+ | cosine_precision@5 | 0.1017 |
520
+ | cosine_precision@10 | 0.0602 |
521
+ | cosine_recall@1 | 0.2659 |
522
+ | cosine_recall@3 | 0.4323 |
523
+ | cosine_recall@5 | 0.5083 |
524
+ | cosine_recall@10 | 0.6015 |
525
+ | cosine_ndcg@10 | 0.4245 |
526
+ | cosine_mrr@10 | 0.3689 |
527
+ | **cosine_map@100** | **0.3781** |
528
+
529
+ #### Information Retrieval
530
+ * Dataset: `dim_256`
531
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
532
+
533
+ | Metric | Value |
534
+ |:--------------------|:-----------|
535
+ | cosine_accuracy@1 | 0.2484 |
536
+ | cosine_accuracy@3 | 0.4108 |
537
+ | cosine_accuracy@5 | 0.4802 |
538
+ | cosine_accuracy@10 | 0.5701 |
539
+ | cosine_precision@1 | 0.2484 |
540
+ | cosine_precision@3 | 0.1369 |
541
+ | cosine_precision@5 | 0.096 |
542
+ | cosine_precision@10 | 0.057 |
543
+ | cosine_recall@1 | 0.2484 |
544
+ | cosine_recall@3 | 0.4108 |
545
+ | cosine_recall@5 | 0.4802 |
546
+ | cosine_recall@10 | 0.5701 |
547
+ | cosine_ndcg@10 | 0.4006 |
548
+ | cosine_mrr@10 | 0.3473 |
549
+ | **cosine_map@100** | **0.3568** |
550
+
551
+ #### Information Retrieval
552
+ * Dataset: `dim_128`
553
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
554
+
555
+ | Metric | Value |
556
+ |:--------------------|:-----------|
557
+ | cosine_accuracy@1 | 0.2214 |
558
+ | cosine_accuracy@3 | 0.3702 |
559
+ | cosine_accuracy@5 | 0.4386 |
560
+ | cosine_accuracy@10 | 0.518 |
561
+ | cosine_precision@1 | 0.2214 |
562
+ | cosine_precision@3 | 0.1234 |
563
+ | cosine_precision@5 | 0.0877 |
564
+ | cosine_precision@10 | 0.0518 |
565
+ | cosine_recall@1 | 0.2214 |
566
+ | cosine_recall@3 | 0.3702 |
567
+ | cosine_recall@5 | 0.4386 |
568
+ | cosine_recall@10 | 0.518 |
569
+ | cosine_ndcg@10 | 0.3619 |
570
+ | cosine_mrr@10 | 0.3128 |
571
+ | **cosine_map@100** | **0.3218** |
572
+
573
+ #### Information Retrieval
574
+ * Dataset: `dim_64`
575
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
576
+
577
+ | Metric | Value |
578
+ |:--------------------|:----------|
579
+ | cosine_accuracy@1 | 0.1616 |
580
+ | cosine_accuracy@3 | 0.2775 |
581
+ | cosine_accuracy@5 | 0.3343 |
582
+ | cosine_accuracy@10 | 0.4103 |
583
+ | cosine_precision@1 | 0.1616 |
584
+ | cosine_precision@3 | 0.0925 |
585
+ | cosine_precision@5 | 0.0669 |
586
+ | cosine_precision@10 | 0.041 |
587
+ | cosine_recall@1 | 0.1616 |
588
+ | cosine_recall@3 | 0.2775 |
589
+ | cosine_recall@5 | 0.3343 |
590
+ | cosine_recall@10 | 0.4103 |
591
+ | cosine_ndcg@10 | 0.2771 |
592
+ | cosine_mrr@10 | 0.2356 |
593
+ | **cosine_map@100** | **0.244** |
594
+
595
+ <!--
596
+ ## Bias, Risks and Limitations
597
+
598
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
599
+ -->
600
+
601
+ <!--
602
+ ### Recommendations
603
+
604
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
605
+ -->
606
+
607
+ ## Training Details
608
+
609
+ ### Training Dataset
610
+
611
+ #### json
612
+
613
+ * Dataset: json
614
+ * Size: 107,510 training samples
615
+ * Columns: <code>positive</code> and <code>anchor</code>
616
+ * Approximate statistics based on the first 1000 samples:
617
+ | | positive | anchor |
618
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
619
+ | type | string | string |
620
+ | details | <ul><li>min: 34 tokens</li><li>mean: 209.22 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 25.12 tokens</li><li>max: 53 tokens</li></ul> |
621
+ * Samples:
622
+ | positive | anchor |
623
+ |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------|
624
+ | <code>['Điều kiện thực hiện các quyền chuyển đổi, chuyển nhượng, cho thuê, cho thuê lại, thừa kế, tặng cho, thế chấp quyền sử dụng đất; góp vốn bằng quyền sử dụng đất\n1. Người sử dụng đất được thực hiện các quyền chuyển đổi, chuyển nhượng, cho thuê, cho thuê lại, thừa kế, tặng cho, thế chấp quyền sử dụng đất; góp vốn bằng quyền sử dụng đất khi có các điều kiện sau đây:\na) Có Giấy chứng nhận, trừ trường hợp quy định tại khoản 3 Điều 186 và trường hợp nhận thừa kế quy định tại khoản 1 Điều 168 của Luật này;\nb) Đất không có tranh chấp;\nc) Quyền sử dụng đất không bị kê biên để bảo đảm thi hành án;\nd) Trong thời hạn sử dụng đất.\n...']</code> | <code>Để tặng cho quyền sử dụng đất thì người sử dụng đất phải đảm bảo được những điều kiện nào?</code> |
625
+ | <code>['Vốn hoạt động của hợp tác xã\n1. Vốn hoạt động của hợp tác xã, liên hiệp hợp tác xã gồm vốn góp của thành viên, hợp tác xã thành viên, vốn huy động, vốn tích lũy, các quỹ của hợp tác xã, liên hiệp hợp tác xã; các khoản trợ cấp, hỗ trợ của Nhà nước, của các tổ chức, cá nhân trong nước và nước ngoài; các khoản được tặng, cho và các nguồn thu hợp pháp khác.\n2. Điều lệ, quy chế quản lý tài chính của hợp tác xã, liên hiệp hợp tác xã quy định cụ thể việc quản lý, sử dụng vốn hoạt động của hợp tác xã, liên hiệp hợp tác xã phù hợp với quy định của Luật Hợp tác xã và quy định của pháp luật có liên quan.']</code> | <code>Vốn hoạt động của hợp tác xã bao gồm những nguồn nào?</code> |
626
+ | <code>['Về kỹ năng\n- Sử dụng được công nghệ thông tin cơ bản theo quy định;\n- Xác định được yêu cầu của hệ thống cơ sở dữ liệu;\n- Cài đặt thành thạo phần mềm quản trị cơ sở dữ liệu;\n- Khai thác hiệu suất cao hệ thống cơ sở dữ liệu;\n- Quản lý an toàn hệ thống cơ sở dữ liệu;\n- Bảo trì được hệ thống;\n- Bảo mật được hệ thống cơ sở dữ liệu;\n- Nâng cấp được hệ thống cơ sở dữ liệu;\n- Xây dựng được ứng dụng;\n- Tích hợp được các hệ thống cơ sở dữ liệu;\n- Bảo trì, sửa chữa, nâng cấp được phần mềm và phần cứng của hệ thống mạng;\n- Xây dựng được các ứng dụng đơn giản trên hệ thống mạng;\n- Ghi được nhật ký cũng như báo cáo công việc, tiến độ công việc;\n- Thực hiện được các biện pháp vệ sinh công nghiệp, an toàn lao động;\n- Giao tiếp hiệu quả thông qua viết, thuyết trình, thảo luận, đàm phán, làm chủ tình huống;\n- Giám sát hệ thống công nghệ thông tin vừa và nhỏ;\n- Sử dụng được công nghệ thông tin cơ bản theo quy định; ứng dụng công nghệ thông tin trong một số công việc chuyên môn của ngành, nghề;\n- Sử dụng được ngoại ngữ cơ bản, đạt bậc 1/6 trong Khung năng lực ngoại ngữ của Việt Nam; ứng dụng được ngoại ngữ vào một số công việc chuyên môn của ngành, nghề.']</code> | <code>Người học ngành quản trị cơ sở dữ li��u trình độ trung cấp sau khi tốt nghiệp phải có kỹ năng ngoại ngữ như thế nào?</code> |
627
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
628
+ ```json
629
+ {
630
+ "loss": "MultipleNegativesRankingLoss",
631
+ "matryoshka_dims": [
632
+ 768,
633
+ 512,
634
+ 256,
635
+ 128,
636
+ 64
637
+ ],
638
+ "matryoshka_weights": [
639
+ 1,
640
+ 1,
641
+ 1,
642
+ 1,
643
+ 1
644
+ ],
645
+ "n_dims_per_step": -1
646
+ }
647
+ ```
648
+
649
+ ### Evaluation Dataset
650
+
651
+ #### json
652
+
653
+ * Dataset: json
654
+ * Size: 11,946 evaluation samples
655
+ * Columns: <code>positive</code> and <code>anchor</code>
656
+ * Approximate statistics based on the first 1000 samples:
657
+ | | positive | anchor |
658
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
659
+ | type | string | string |
660
+ | details | <ul><li>min: 31 tokens</li><li>mean: 210.02 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 24.98 tokens</li><li>max: 64 tokens</li></ul> |
661
+ * Samples:
662
+ | positive | anchor |
663
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------|
664
+ | <code>['Miễn nhiệm, cách chức Trưởng ban kiểm soát, Kiểm soát viên\n1. Trưởng ban kiểm soát, Kiểm soát viên bị miễn nhiệm trong các trường hợp sau đây:\na) Không còn đủ tiêu chuẩn và điều kiện theo quy định tại Điều 23 của Điều lệ này;\nb) Có đơn xin từ chức và được cơ quan đại diện chủ sở hữu chấp thuận;\nc) Được cơ quan đại diện chủ sở hữu hoặc cơ quan có thẩm quyền khác điều động, phân công thực hiện nhiệm vụ khác;\nd) Trường hợp khác theo quy định của pháp luật.\n...']</code> | <code>Việc miễn nhiệm Trưởng Ban kiểm soát Tổng công ty Giấy Việt Nam được thực hiện khi nào?</code> |
665
+ | <code>['Cấp giấy phép hoạt động tư vấn chuyên ngành điện thuộc thẩm quyền cấp của địa phương\n...\nc) Thành phần hồ sơ:\n- Văn bản đề nghị cấp giấy phép hoạt động điện lực theo Mẫu 01 quy định tại Phụ lục ban hành kèm theo Thông tư số 21/2020/TT-BCT .\n- Bản sao Giấy chứng nhận đăng ký doanh nghiệp hoặc Quyết định thành lập, Giấy chứng nhận thành lập (đối với các tổ chức không có Giấy chứng nhận đăng ký doanh nghiệp) của tổ chức đề nghị cấp giấy phép.\n- Danh sách trích ngang chuyên gia tư vấn đảm nhiệm chức danh chủ nhiệm, chức danh giám sát trưởng và các chuyên gia tư vấn khác theo Mẫu 3a quy định tại Phụ lục ban hành kèm theo Thông tư số 21/2020/TT-BCT ; bản sao bằng tốt nghiệp đại học trở lên, chứng chỉ hành nghề hoạt động xây dựng, hợp đồng lao động xác định thời hạn hoặc không xác định thời hạn của các chuyên gia tư vấn.\n- Tài liệu chứng minh kinh nghiệm của các chuyên gia tư vấn (Quyết định phân công nhiệm vụ, giấy xác nhận của các đơn vị có dự án mà chuyên gia đã thực hiện hoặc các tài liệu có giá trị tương đương).\n...']</code> | <code>Cần chuẩn bị những giấy tờ gì để thực hiện thủ tục cấp giấy phép hoạt động tư vấn thiết kế công trình đường dây và trạm biến áp có cấp điện áp đến 35kV?</code> |
666
+ | <code>['Điều 41. Tạm hoãn gọi nhập ngũ và miễn gọi nhập ngũ\n1. Tạm hoãn gọi nhập ngũ đối với những công dân sau đây:\na) Chưa đủ sức khỏe phục vụ tại ngũ theo kết luận của Hội đồng khám sức khỏe;\nb) Là lao động duy nhất phải trực tiếp nuôi dưỡng thân nhân không còn khả năng lao động hoặc chưa đến tuổi lao động; trong gia đình bị thiệt hại nặng về người và tài sản do tai nạn, thiên tai, dịch bệnh nguy hiểm gây ra được Ủy ban nhân dân cấp xã xác nhận;\nc) Một con của bệnh binh, người nhiễm chất độc da cam suy giảm khả năng lao động từ 61% đến 80%;\nd) Có anh, chị hoặc em ruột là hạ sĩ quan, binh sĩ đang phục vụ tại ngũ; hạ sĩ quan, chiến sĩ thực hiện nghĩa vụ tham gia Công an nhân dân;\nđ) Người thuộc diện di dân, giãn dân trong 03 năm đầu đến các xã đặc biệt khó khăn theo dự án phát triển kinh tế - xã hội của Nhà nước do Ủy ban nhân dân cấp tỉnh trở lên quyết định;\ne) Cán bộ, công chức, viên chức, thanh niên xung phong được điều động đến công tác, làm việc ở vùng có điều kiện kinh tế - xã hội đặc biệt khó khăn theo quy định của pháp luật;\ng) Đang học tại cơ sở giáo dục phổ thông; đang được đào tạo trình độ đại học hệ chính quy thuộc cơ sở giáo dục đại học, trình độ cao đẳng hệ chính quy thuộc cơ sở giáo dục nghề nghiệp trong thời gian một khóa đào tạo của một trình độ đào tạo.\nh) Dân quân thường trực.\n2. Miễn gọi nhập ngũ đối với những công dân sau đây:\na) Con của liệt sĩ, con của thương binh hạng một;\nb) Một anh hoặc một em trai của liệt sĩ;\nc) Một con của thương binh hạng hai; một con của bệnh binh suy giảm khả năng lao động từ 81% trở lên; một con của người nhiễm chất độc da cam suy giảm khả năng lao động từ 81 % trở lên;\nd) Người làm công tác cơ yếu không phải là quân nhân, Công an nhân dân;\nđ) Cán bộ, công chức, viên chức, thanh niên xung phong được điều động đến công tác, làm việc ở vùng có điều kiện kinh tế - xã hội đặc biệt khó khăn theo quy định của pháp luật từ 24 tháng trở lên.\n3. Công dân thuộc diện tạm hoãn gọi nhập ngũ quy định tại khoản 1 Điều này, nếu không còn lý do tạm hoãn thì được gọi nhập ngũ.\nCông dân thuộc diện được tạm hoãn gọi nhập ngũ hoặc được miễn gọi nhập ngũ quy định tại khoản 1 và khoản 2 Điều này, nếu tình nguyện thì được xem xét tuyển chọn và gọi nhập ngũ.\n4. Danh sách công dân thuộc diện được tạm hoãn gọi nhập ngũ, được miễn gọi nhập ngũ phải được niêm yết công khai tại trụ sở Ủy ban nhân dân cấp xã, cơ quan, tổ chức trong thời hạn 20 ngày.']</code> | <code>Liên quan đến tạm hoãn nghĩa vụ quân sự được pháp luật quy định như thế nào?</code> |
667
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
668
+ ```json
669
+ {
670
+ "loss": "MultipleNegativesRankingLoss",
671
+ "matryoshka_dims": [
672
+ 768,
673
+ 512,
674
+ 256,
675
+ 128,
676
+ 64
677
+ ],
678
+ "matryoshka_weights": [
679
+ 1,
680
+ 1,
681
+ 1,
682
+ 1,
683
+ 1
684
+ ],
685
+ "n_dims_per_step": -1
686
+ }
687
+ ```
688
+
689
+ ### Training Hyperparameters
690
+ #### Non-Default Hyperparameters
691
+
692
+ - `eval_strategy`: epoch
693
+ - `per_device_train_batch_size`: 64
694
+ - `per_device_eval_batch_size`: 64
695
+ - `gradient_accumulation_steps`: 16
696
+ - `learning_rate`: 2e-05
697
+ - `num_train_epochs`: 4
698
+ - `lr_scheduler_type`: cosine
699
+ - `warmup_ratio`: 0.1
700
+ - `bf16`: True
701
+ - `load_best_model_at_end`: True
702
+ - `optim`: adamw_torch_fused
703
+ - `batch_sampler`: no_duplicates
704
+
705
+ #### All Hyperparameters
706
+ <details><summary>Click to expand</summary>
707
+
708
+ - `overwrite_output_dir`: False
709
+ - `do_predict`: False
710
+ - `eval_strategy`: epoch
711
+ - `prediction_loss_only`: True
712
+ - `per_device_train_batch_size`: 64
713
+ - `per_device_eval_batch_size`: 64
714
+ - `per_gpu_train_batch_size`: None
715
+ - `per_gpu_eval_batch_size`: None
716
+ - `gradient_accumulation_steps`: 16
717
+ - `eval_accumulation_steps`: None
718
+ - `torch_empty_cache_steps`: None
719
+ - `learning_rate`: 2e-05
720
+ - `weight_decay`: 0.0
721
+ - `adam_beta1`: 0.9
722
+ - `adam_beta2`: 0.999
723
+ - `adam_epsilon`: 1e-08
724
+ - `max_grad_norm`: 1.0
725
+ - `num_train_epochs`: 4
726
+ - `max_steps`: -1
727
+ - `lr_scheduler_type`: cosine
728
+ - `lr_scheduler_kwargs`: {}
729
+ - `warmup_ratio`: 0.1
730
+ - `warmup_steps`: 0
731
+ - `log_level`: passive
732
+ - `log_level_replica`: warning
733
+ - `log_on_each_node`: True
734
+ - `logging_nan_inf_filter`: True
735
+ - `save_safetensors`: True
736
+ - `save_on_each_node`: False
737
+ - `save_only_model`: False
738
+ - `restore_callback_states_from_checkpoint`: False
739
+ - `no_cuda`: False
740
+ - `use_cpu`: False
741
+ - `use_mps_device`: False
742
+ - `seed`: 42
743
+ - `data_seed`: None
744
+ - `jit_mode_eval`: False
745
+ - `use_ipex`: False
746
+ - `bf16`: True
747
+ - `fp16`: False
748
+ - `fp16_opt_level`: O1
749
+ - `half_precision_backend`: auto
750
+ - `bf16_full_eval`: False
751
+ - `fp16_full_eval`: False
752
+ - `tf32`: None
753
+ - `local_rank`: 0
754
+ - `ddp_backend`: None
755
+ - `tpu_num_cores`: None
756
+ - `tpu_metrics_debug`: False
757
+ - `debug`: []
758
+ - `dataloader_drop_last`: False
759
+ - `dataloader_num_workers`: 0
760
+ - `dataloader_prefetch_factor`: None
761
+ - `past_index`: -1
762
+ - `disable_tqdm`: False
763
+ - `remove_unused_columns`: True
764
+ - `label_names`: None
765
+ - `load_best_model_at_end`: True
766
+ - `ignore_data_skip`: False
767
+ - `fsdp`: []
768
+ - `fsdp_min_num_params`: 0
769
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
770
+ - `fsdp_transformer_layer_cls_to_wrap`: None
771
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
772
+ - `deepspeed`: None
773
+ - `label_smoothing_factor`: 0.0
774
+ - `optim`: adamw_torch_fused
775
+ - `optim_args`: None
776
+ - `adafactor`: False
777
+ - `group_by_length`: False
778
+ - `length_column_name`: length
779
+ - `ddp_find_unused_parameters`: None
780
+ - `ddp_bucket_cap_mb`: None
781
+ - `ddp_broadcast_buffers`: False
782
+ - `dataloader_pin_memory`: True
783
+ - `dataloader_persistent_workers`: False
784
+ - `skip_memory_metrics`: True
785
+ - `use_legacy_prediction_loop`: False
786
+ - `push_to_hub`: False
787
+ - `resume_from_checkpoint`: None
788
+ - `hub_model_id`: None
789
+ - `hub_strategy`: every_save
790
+ - `hub_private_repo`: False
791
+ - `hub_always_push`: False
792
+ - `gradient_checkpointing`: False
793
+ - `gradient_checkpointing_kwargs`: None
794
+ - `include_inputs_for_metrics`: False
795
+ - `eval_do_concat_batches`: True
796
+ - `fp16_backend`: auto
797
+ - `push_to_hub_model_id`: None
798
+ - `push_to_hub_organization`: None
799
+ - `mp_parameters`:
800
+ - `auto_find_batch_size`: False
801
+ - `full_determinism`: False
802
+ - `torchdynamo`: None
803
+ - `ray_scope`: last
804
+ - `ddp_timeout`: 1800
805
+ - `torch_compile`: False
806
+ - `torch_compile_backend`: None
807
+ - `torch_compile_mode`: None
808
+ - `dispatch_batches`: None
809
+ - `split_batches`: None
810
+ - `include_tokens_per_second`: False
811
+ - `include_num_input_tokens_seen`: False
812
+ - `neftune_noise_alpha`: None
813
+ - `optim_target_modules`: None
814
+ - `batch_eval_metrics`: False
815
+ - `eval_on_start`: False
816
+ - `use_liger_kernel`: False
817
+ - `eval_use_gather_object`: False
818
+ - `batch_sampler`: no_duplicates
819
+ - `multi_dataset_batch_sampler`: proportional
820
+
821
+ </details>
822
+
823
+ ### Training Logs
824
+ | Epoch | Step | Training Loss | loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
825
+ |:------:|:----:|:-------------:|:------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
826
+ | 0.0952 | 10 | 2.1759 | - | - | - | - | - | - |
827
+ | 0.1905 | 20 | 1.4526 | - | - | - | - | - | - |
828
+ | 0.2857 | 30 | 1.4855 | - | - | - | - | - | - |
829
+ | 0.3810 | 40 | 1.5256 | - | - | - | - | - | - |
830
+ | 0.4762 | 50 | 1.6203 | - | - | - | - | - | - |
831
+ | 0.5714 | 60 | 1.6302 | - | - | - | - | - | - |
832
+ | 0.6667 | 70 | 1.8354 | - | - | - | - | - | - |
833
+ | 0.7619 | 80 | 1.4928 | - | - | - | - | - | - |
834
+ | 0.8571 | 90 | 1.6114 | - | - | - | - | - | - |
835
+ | 0.9524 | 100 | 1.5655 | - | - | - | - | - | - |
836
+ | 1.0 | 105 | - | 1.4307 | 0.3218 | 0.3568 | 0.3781 | 0.2440 | 0.3808 |
837
+ | 1.0476 | 110 | 1.4171 | - | - | - | - | - | - |
838
+ | 1.1429 | 120 | 1.572 | - | - | - | - | - | - |
839
+ | 1.2381 | 130 | 1.3337 | - | - | - | - | - | - |
840
+ | 1.3333 | 140 | 1.2587 | - | - | - | - | - | - |
841
+ | 1.4286 | 150 | 1.3038 | - | - | - | - | - | - |
842
+ | 1.5238 | 160 | 1.5032 | - | - | - | - | - | - |
843
+ | 1.6190 | 170 | 1.1601 | - | - | - | - | - | - |
844
+ | 1.7143 | 180 | 1.2226 | - | - | - | - | - | - |
845
+ | 1.8095 | 190 | 1.1545 | - | - | - | - | - | - |
846
+ | 1.9048 | 200 | 1.2034 | - | - | - | - | - | - |
847
+ | 2.0 | 210 | 1.0695 | 1.1034 | 0.3218 | 0.3568 | 0.3781 | 0.2440 | 0.3808 |
848
+ | 2.0952 | 220 | 1.0259 | - | - | - | - | - | - |
849
+ | 2.1905 | 230 | 0.8647 | - | - | - | - | - | - |
850
+ | 2.2857 | 240 | 0.901 | - | - | - | - | - | - |
851
+ | 2.3810 | 250 | 0.9261 | - | - | - | - | - | - |
852
+ | 2.4762 | 260 | 0.8719 | - | - | - | - | - | - |
853
+ | 2.5714 | 270 | 0.8008 | - | - | - | - | - | - |
854
+ | 2.6667 | 280 | 0.7091 | - | - | - | - | - | - |
855
+ | 2.7619 | 290 | 0.6592 | - | - | - | - | - | - |
856
+ | 2.8571 | 300 | 0.69 | - | - | - | - | - | - |
857
+ | 2.9524 | 310 | 0.739 | - | - | - | - | - | - |
858
+ | 3.0 | 315 | - | 0.8128 | 0.3218 | 0.3568 | 0.3781 | 0.2440 | 0.3808 |
859
+
860
+
861
+ ### Framework Versions
862
+ - Python: 3.10.12
863
+ - Sentence Transformers: 3.1.1
864
+ - Transformers: 4.45.2
865
+ - PyTorch: 2.3.1+cu121
866
+ - Accelerate: 1.0.1
867
+ - Datasets: 2.19.1
868
+ - Tokenizers: 0.20.1
869
+
870
+ ## Citation
871
+
872
+ ### BibTeX
873
+
874
+ #### Sentence Transformers
875
+ ```bibtex
876
+ @inproceedings{reimers-2019-sentence-bert,
877
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
878
+ author = "Reimers, Nils and Gurevych, Iryna",
879
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
880
+ month = "11",
881
+ year = "2019",
882
+ publisher = "Association for Computational Linguistics",
883
+ url = "https://arxiv.org/abs/1908.10084",
884
+ }
885
+ ```
886
+
887
+ #### MatryoshkaLoss
888
+ ```bibtex
889
+ @misc{kusupati2024matryoshka,
890
+ title={Matryoshka Representation Learning},
891
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
892
+ year={2024},
893
+ eprint={2205.13147},
894
+ archivePrefix={arXiv},
895
+ primaryClass={cs.LG}
896
+ }
897
+ ```
898
+
899
+ #### MultipleNegativesRankingLoss
900
+ ```bibtex
901
+ @misc{henderson2017efficient,
902
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
903
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
904
+ year={2017},
905
+ eprint={1705.00652},
906
+ archivePrefix={arXiv},
907
+ primaryClass={cs.CL}
908
+ }
909
+ ```
910
+
911
+ <!--
912
+ ## Glossary
913
+
914
+ *Clearly define terms in order to be accessible across audiences.*
915
+ -->
916
+
917
+ <!--
918
+ ## Model Card Authors
919
+
920
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
921
+ -->
922
+
923
+ <!--
924
+ ## Model Card Contact
925
+
926
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
927
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "bge-base-law-matryoshka/checkpoint-315",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.45.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.1",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e681accadaec87e79901db0c3f68e33d996cba334633b6dd0b2483dba4f398e0
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff