RamsesDIIP commited on
Commit
c3ae363
1 Parent(s): 380907d

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
3_MyLinearAdapter/adapter_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0de182ad7f14692bb5370d349960332b08e9bfe725e8cc782f419734b91b86be
3
+ size 4199996
README.md ADDED
@@ -0,0 +1,523 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-large
3
+ language:
4
+ - multilingual
5
+ library_name: sentence-transformers
6
+ license: apache-2.0
7
+ metrics:
8
+ - cosine_accuracy
9
+ - dot_accuracy
10
+ - manhattan_accuracy
11
+ - euclidean_accuracy
12
+ - max_accuracy
13
+ pipeline_tag: sentence-similarity
14
+ tags:
15
+ - sentence-transformers
16
+ - sentence-similarity
17
+ - feature-extraction
18
+ - generated_from_trainer
19
+ - dataset_size:1412
20
+ - loss:TripletLoss
21
+ widget:
22
+ - source_sentence: Chapado de paramento vertical exterior a una altura <= 3 m, con
23
+ piedra calcárea nacional con una cara apomazada, precio alto, de 30 mm de espesor
24
+ con taladros para fijaciones y arista viva en los cuatro bordes y de 2501 a 6400
25
+ cm2, colocada con adhesivo C2 TE (UNE-EN 12004) y ganchos de acero inoxidable,
26
+ y rejuntado con lechada CG2 (UNE-EN 13888)
27
+ sentences:
28
+ - Piso laminado de madera de cerezo, compuesto por tablas multicapa con un acabado
29
+ de 2,5 a 2,9 mm de grosor, dimensiones superiores a 1900 mm de largo y 200 mm
30
+ de ancho, con un espesor total de 14 mm, que incluye 3 listones por tabla y sistema
31
+ de unión para encolar, instalado sobre una base de polietileno expandido de 3
32
+ mm.
33
+ - Revestimiento de pared exterior a una altura máxima de 3 m, utilizando piedra
34
+ caliza nacional con acabado pulido, de 30 mm de grosor, con perforaciones para
35
+ fijaciones y bordes afilados, con dimensiones de 2501 a 6400 cm2, instalado con
36
+ adhesivo C2 TE (UNE-EN 12004) y ganchos de acero inoxidable, y sellado con mortero
37
+ CG2 (UNE-EN 13888).
38
+ - Revestimiento de paramento interior a una altura > 3 m, con cerámica importada
39
+ con acabado rugoso, precio bajo, de 15 mm de espesor sin perforaciones y arista
40
+ redondeada en los bordes, y de 1000 a 2500 cm2, colocada con mortero convencional
41
+ y sin rejuntado.
42
+ - source_sentence: Hormigonado para muro, con hormigón para armar autocompactante
43
+ con aditivo hidrófugo HA - 35 / AC / 20 / XC4 + XD3 + XA1 con una cantidad de
44
+ cemento de 325 kg/m3 i relación agua cemento =< 0.5, colocado con cubilote
45
+ sentences:
46
+ - Pared exterior de panel de madera contralaminada de 180 mm de grosor, compuesta
47
+ por 5 capas de madera de pino C24, unidas con adhesivo libre de urea-formaldehído,
48
+ con disposición transversal en ambas caras, sin tratamiento hidrófugo, y acabado
49
+ superficial tipo vivienda en ambas caras utilizando madera de Alerce europeo barnizada
50
+ en un lado y madera de abeto rojo con lasur en el otro, fijada mecánicamente,
51
+ con desolidarización del soporte mediante banda resiliente de caucho EPDM, unida
52
+ con grapas; los paneles se ensamblan mediante machihembrado y se fijan con tornillos
53
+ de acero, sellando las juntas interiores con cinta adhesiva de goma butílica y
54
+ las exteriores con cinta autoadhesiva de polietileno acrílico, tras aplicar una
55
+ imprimación acrílica incolora; se resuelven las uniones con tornillos de acero
56
+ y se fijan los paneles con elementos de acero galvanizado.
57
+ - Hormigonado para pavimento, utilizando hormigón convencional con aditivo retardante
58
+ de fraguado, con una cantidad de cemento de 400 kg/m3 y relación agua-cemento
59
+ =< 0.6, aplicado con bomba de presión.
60
+ - Vertido de hormigón para la construcción de muros, utilizando hormigón autocompactante
61
+ con aditivo impermeabilizante HA - 35 / AC / 20 / XC4 + XD3 + XA1, con una dosificación
62
+ de cemento de 325 kg/m3 y una relación agua-cemento menor o igual a 0.5, aplicado
63
+ mediante cubilote.
64
+ - source_sentence: Caldera mural de condensación, para gas propano, de 70 kW de potencia
65
+ térmica útil, para calefacción, superficies de transmisión de calor de acero inoxidable
66
+ 1.4404 (AISI 316L), quemador monobloque modulate de tipo premezcla con modulación
67
+ 1:4, temperatura de funcionamiento 80°C, temperatura máxima 90°C, presión máxima
68
+ 0,4 MPa, eficiencia en régimen de alta temperatura (80/60°C) del 88% respecto
69
+ al PCS, eficiencia en régimen de baja temperatura (50/30°C) al 30% de la carga
70
+ del 98% respecto al PCS, funcionamiento en función de la temperatura exterior,
71
+ para instalación como caldera individual, no incluye la bomba circuladora, colocada
72
+ con soportes murales
73
+ sentences:
74
+ - Caldera de leña de alto rendimiento, diseñada para calefacción de espacios amplios,
75
+ con una capacidad de 50 kW, fabricada en acero al carbono, equipada con un sistema
76
+ de combustión de leña de tipo tradicional, temperatura de operación de 70°C, presión
77
+ de trabajo de 0,5 MPa, eficiencia energética del 75% en condiciones de carga máxima,
78
+ ideal para instalaciones en zonas rurales, incluye sistema de ventilación forzada,
79
+ montada sobre base de hormigón.
80
+ - Vertido de hormigón para vigas inclinadas, utilizando hormigón pretensado con
81
+ aditivo impermeabilizante HP - 40 / F / 20 / XC4, con una dosificación de cemento
82
+ de 350 kg/m3 y una relación agua-cemento menor o igual a 0.45, aplicado con cubilote.
83
+ - Caldera de condensación mural para gas propano, con una potencia térmica útil
84
+ de 70 kW, diseñada para calefacción, equipada con superficies de intercambio térmico
85
+ de acero inoxidable 1.4404 (AISI 316L), quemador monobloque de modulación premezclada
86
+ con una relación de modulación de 1:4, operando a una temperatura de 80°C y un
87
+ máximo de 90°C, con una presión máxima de 0,4 MPa, eficiencia del 88% en alta
88
+ temperatura (80/60°C) y del 98% en baja temperatura (50/30°C) al 30% de carga,
89
+ con control de funcionamiento según la temperatura exterior, adecuada para instalación
90
+ como caldera individual, sin bomba circuladora, montada con soportes en la pared.
91
+ - source_sentence: Alcantarilla con tubo de polietileno de alta densidad de designación
92
+ PE 100, de 450 mm de diámetro nominal, de 10 bar de presión nominal, serie SDR
93
+ 17, según la norma UNE-EN 12201-2, soldada, con grado de dificultad media y colocado
94
+ en el fondo de la zanja, en entorno urbano sin dificultad de movilidad, en aceras
95
+ <= 3 m de ancho o calzada/plataforma única <= 7 m de ancho, con afectación por
96
+ servicios o elementos de mobiliario urbano, en actuaciones de más de100 m
97
+ sentences:
98
+ - Paneles de aislamiento de poliestireno extruido (XPS) de 160 mm de grosor, con
99
+ una resistencia a compresión mínima de 300 kPa y una resistencia térmica de entre
100
+ 5.714 y 5.161 m²·K/W, acabados con superficie lisa y bordes en media madera, instalados
101
+ con adhesivo de mortero.
102
+ - Tubería de polietileno de alta densidad PE 100, de 450 mm de diámetro, con una
103
+ presión nominal de 10 bar y serie SDR 17, conforme a la norma UNE-EN 12201-2,
104
+ instalada en el fondo de una zanja en un entorno urbano, con dificultad media,
105
+ en aceras de hasta 3 m de ancho o calzadas de hasta 7 m, afectada por servicios
106
+ y mobiliario urbano, en proyectos que superan los 100 m.
107
+ - Alcantarilla de concreto armado con refuerzo de acero, de 600 mm de diámetro nominal,
108
+ diseñada para soportar 15 bar de presión, serie SDR 26, conforme a la norma UNE-EN
109
+ 1916, instalada en la parte superior de la zanja, en un entorno rural con acceso
110
+ restringido, en caminos de tierra <= 5 m de ancho, sin interferencias por servicios
111
+ o elementos de infraestructura, en proyectos de menos de 50 m.
112
+ - source_sentence: Vidrio aislante de luna incolora de 5 mm de espesor, cámara de
113
+ aire de 10 mm y luna de 3+3 mm de espesor con 1 butiral de color estándard de
114
+ luna de coloreado, clase 2 (B) 2 según UNE-EN 12600, colocado con perfiles conformados
115
+ de neopreno sobre aluminio o PVC
116
+ sentences:
117
+ - Vidrio templado de color azul de 6 mm de espesor, con una cámara de aire de 12
118
+ mm y luna de 4+4 mm de espesor, utilizando un butiral transparente, clase 1 (A)
119
+ 1 según UNE-EN 12600, instalado con marcos de acero inoxidable.
120
+ - Sistema de aislamiento térmico exterior (SATE) con paneles de poliestireno expandido
121
+ (EPS) de 40 mm, que ofrece una resistencia térmica de 1,05 m2·K/W, fijado con
122
+ mortero de cemento y reforzado con malla de fibra de vidrio, terminado con un
123
+ enfoscado monocapa de cemento, cumpliendo con la normativa UNE-EN 998-1.
124
+ - Vidrio doble de 5 mm de espesor con cámara de aire de 10 mm y vidrio laminado
125
+ de 3+3 mm, utilizando butiral estándar de color, clase 2 (B) 2 según UNE-EN 12600,
126
+ instalado con marcos de neopreno sobre aluminio o PVC.
127
+ model-index:
128
+ - name: Multilingual E5 Large with Linear Adapter for Construction Terms
129
+ results:
130
+ - task:
131
+ type: triplet
132
+ name: Triplet
133
+ dataset:
134
+ name: validation set
135
+ type: validation-set
136
+ metrics:
137
+ - type: cosine_accuracy
138
+ value: 0.9772727272727273
139
+ name: Cosine Accuracy
140
+ - type: dot_accuracy
141
+ value: 0.056818181818181816
142
+ name: Dot Accuracy
143
+ - type: manhattan_accuracy
144
+ value: 0.9772727272727273
145
+ name: Manhattan Accuracy
146
+ - type: euclidean_accuracy
147
+ value: 0.9772727272727273
148
+ name: Euclidean Accuracy
149
+ - type: max_accuracy
150
+ value: 0.9772727272727273
151
+ name: Max Accuracy
152
+ ---
153
+
154
+ # Multilingual E5 Large with Linear Adapter for Construction Terms
155
+
156
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
157
+
158
+ ## Model Details
159
+
160
+ ### Model Description
161
+ - **Model Type:** Sentence Transformer
162
+ - **Base model:** [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) <!-- at revision ab10c1a7f42e74530fe7ae5be82e6d4f11a719eb -->
163
+ - **Maximum Sequence Length:** 512 tokens
164
+ - **Output Dimensionality:** 1024 tokens
165
+ - **Similarity Function:** Cosine Similarity
166
+ <!-- - **Training Dataset:** Unknown -->
167
+ - **Language:** multilingual
168
+ - **License:** apache-2.0
169
+
170
+ ### Model Sources
171
+
172
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
173
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
174
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
175
+
176
+ ### Full Model Architecture
177
+
178
+ ```
179
+ SentenceTransformer(
180
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
181
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
182
+ (2): Normalize()
183
+ (linear_adapter): MyLinearAdapter(
184
+ (linear): Linear(in_features=1024, out_features=1024, bias=True)
185
+ )
186
+ )
187
+ ```
188
+
189
+ ## Usage
190
+
191
+ ### Direct Usage (Sentence Transformers)
192
+
193
+ First install the Sentence Transformers library:
194
+
195
+ ```bash
196
+ pip install -U sentence-transformers
197
+ ```
198
+
199
+ Then you can load this model and run inference.
200
+ ```python
201
+ from sentence_transformers import SentenceTransformer
202
+
203
+ # Download from the 🤗 Hub
204
+ model = SentenceTransformer("RamsesDIIP/me5-large-construction-adapter")
205
+ # Run inference
206
+ sentences = [
207
+ 'Vidrio aislante de luna incolora de 5 mm de espesor, cámara de aire de 10 mm y luna de 3+3 mm de espesor con 1 butiral de color estándard de luna de coloreado, clase 2 (B) 2 según UNE-EN 12600, colocado con perfiles conformados de neopreno sobre aluminio o PVC',
208
+ 'Vidrio doble de 5 mm de espesor con cámara de aire de 10 mm y vidrio laminado de 3+3 mm, utilizando butiral estándar de color, clase 2 (B) 2 según UNE-EN 12600, instalado con marcos de neopreno sobre aluminio o PVC.',
209
+ 'Vidrio templado de color azul de 6 mm de espesor, con una cámara de aire de 12 mm y luna de 4+4 mm de espesor, utilizando un butiral transparente, clase 1 (A) 1 según UNE-EN 12600, instalado con marcos de acero inoxidable.',
210
+ ]
211
+ embeddings = model.encode(sentences)
212
+ print(embeddings.shape)
213
+ # [3, 1024]
214
+
215
+ # Get the similarity scores for the embeddings
216
+ similarities = model.similarity(embeddings, embeddings)
217
+ print(similarities.shape)
218
+ # [3, 3]
219
+ ```
220
+
221
+ <!--
222
+ ### Direct Usage (Transformers)
223
+
224
+ <details><summary>Click to see the direct usage in Transformers</summary>
225
+
226
+ </details>
227
+ -->
228
+
229
+ <!--
230
+ ### Downstream Usage (Sentence Transformers)
231
+
232
+ You can finetune this model on your own dataset.
233
+
234
+ <details><summary>Click to expand</summary>
235
+
236
+ </details>
237
+ -->
238
+
239
+ <!--
240
+ ### Out-of-Scope Use
241
+
242
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
243
+ -->
244
+
245
+ ## Evaluation
246
+
247
+ ### Metrics
248
+
249
+ #### Triplet
250
+ * Dataset: `validation-set`
251
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
252
+
253
+ | Metric | Value |
254
+ |:-------------------|:-----------|
255
+ | cosine_accuracy | 0.9773 |
256
+ | dot_accuracy | 0.0568 |
257
+ | manhattan_accuracy | 0.9773 |
258
+ | euclidean_accuracy | 0.9773 |
259
+ | **max_accuracy** | **0.9773** |
260
+
261
+ <!--
262
+ ## Bias, Risks and Limitations
263
+
264
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
265
+ -->
266
+
267
+ <!--
268
+ ### Recommendations
269
+
270
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
271
+ -->
272
+
273
+ ## Training Details
274
+
275
+ ### Training Dataset
276
+
277
+ #### Unnamed Dataset
278
+
279
+
280
+ * Size: 1,412 training samples
281
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
282
+ * Approximate statistics based on the first 1000 samples:
283
+ | | anchor | positive | negative |
284
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
285
+ | type | string | string | string |
286
+ | details | <ul><li>min: 13 tokens</li><li>mean: 105.73 tokens</li><li>max: 317 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 102.31 tokens</li><li>max: 282 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 86.46 tokens</li><li>max: 265 tokens</li></ul> |
287
+ * Samples:
288
+ | anchor | positive | negative |
289
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
290
+ | <code>Hormigonado para riostras y pilarejos, con hormigón para armar autocompactante HA - 40 / AC / 20 / XC4 + XS1 + XA1 con una cantidad de cemento de 350 kg/m3 i relación agua cemento =< 0.45, colocado con cubilote</code> | <code>Vertido de hormigón para vigas y columnas, utilizando hormigón autocompactante HA - 40 / AC / 20 / XC4 + XS1 + XA1 con una dosificación de cemento de 350 kg/m3 y una relación agua-cemento menor o igual a 0.45, aplicado con cubilote.</code> | <code>Hormigonado para cimientos y muros, utilizando hormigón convencional de resistencia media con una cantidad de cemento de 300 kg/m3 y relación agua-cemento =< 0.50, vertido manualmente.</code> |
291
+ | <code>Tapón extremo de polietileno, diámetro nominal DN 400, conexión hembra-hembra, de superficies interna lisa y externa lisa reforzada con nervios, de fabricación inyectada según norma UNE-EN 13476-3, apta para tubo de saneamiento enterrado sin presión de superficies interna lisa y externa perfilada según norma UNE-EN 13476-3, para doble unión elástica con anillas elastoméricas de estanquidad, colocado sobre lecho de arena de 15 cm de espesor, incluído el relleno del apoyo, con pisón vibrante eléctrico</code> | <code>Tapón de polietileno de diámetro nominal DN 400, con conexión hembra-hembra, superficies internas y externas lisas, fabricado por inyección conforme a la norma UNE-EN 13476-3, adecuado para tubería de saneamiento enterrada sin presión, con doble unión elástica y anillas de sellado, instalado sobre un lecho de arena de 15 cm de grosor, incluyendo el relleno de soporte, utilizando un pisón vibrante eléctrico.</code> | <code>Tapón de PVC, diámetro nominal DN 500, conexión macho-hembra, de superficies interna rugosa y externa lisa, de fabricación extruida según norma UNE-EN 1401, apto para tubo de desagüe superficial con superficies interna y externa lisas, para unión rígida con adhesivo, colocado sobre lecho de grava de 20 cm de espesor, excluido el relleno del soporte, con compactador manual.</code> |
292
+ | <code>Vidrio aislante de luna incolora de 6+6 mm de espesor con 1 butiral de color estándard clase 2 (B) 2 según UNE-EN 12600, cámara de aire de 6 mm y luna de 8+8 mm de espesor con 1 butiral transparente de luna incolora, clase 2 (B) 2 según UNE-EN 12600, colocado con perfiles conformados de neopreno sobre aluminio o PVC</code> | <code>Vidrio doble de 6+6 mm de espesor con butiral estándar de color clase 2 (B) 2 según UNE-EN 12600, con una cámara de aire de 6 mm y un vidrio de 8+8 mm de espesor con butiral transparente, clase 2 (B) 2 según UNE-EN 12600, instalado con marcos de neopreno sobre aluminio o PVC.</code> | <code>Vidrio templado de color verde de 10+10 mm de espesor con 1 butiral de color personalizado clase 1 (A) 1 según UNE-EN 12600, cámara de aire de 8 mm y luna de 6+6 mm de espesor con 1 butiral opaco, clase 1 (A) 1 según UNE-EN 12600, instalado con marcos de acero inoxidable.</code> |
293
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
294
+ ```json
295
+ {
296
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
297
+ "triplet_margin": 5
298
+ }
299
+ ```
300
+
301
+ ### Evaluation Dataset
302
+
303
+ #### Unnamed Dataset
304
+
305
+
306
+ * Size: 176 evaluation samples
307
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
308
+ * Approximate statistics based on the first 176 samples:
309
+ | | anchor | positive | negative |
310
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
311
+ | type | string | string | string |
312
+ | details | <ul><li>min: 25 tokens</li><li>mean: 111.19 tokens</li><li>max: 298 tokens</li></ul> | <ul><li>min: 24 tokens</li><li>mean: 104.95 tokens</li><li>max: 272 tokens</li></ul> | <ul><li>min: 24 tokens</li><li>mean: 86.95 tokens</li><li>max: 235 tokens</li></ul> |
313
+ * Samples:
314
+ | anchor | positive | negative |
315
+ |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
316
+ | <code>Sistema de aislamiento térmico por el exterior (SATE) con aislamiento exterior para soporte de revestimiento delgado, con plancha de poliestireno expandido (EPS), de 40 mm de espesor, de 60 kPa de tensión a la compresión, de 1,05 m2·K/W de resistencia térmica, con una cara lisa y borde recto, fijada mecánicamente con mortero de cemento para uso corriente (GP) y taco y soporte de nylon, y revestida con morter de cemento para uso corriente (GP) con malla de fibra de vidrio revestida de PVC, de dimensiones 4x4 mm, con un peso mínimo de 160 g/m2 embebida, acabado exteriormente con enfoscado con mortero monocapa (OC) de cemento, de designación CSIII-W2, según la norma UNE-EN 998-1, colocado manualmente y acabado liso, con parte proporcional de protección de arista con cantonera de aluminio de 5 mm de espesor y 25 mm de desarrollo. No incluye la preparación del soporte. B2+R3 según CTE/DB-HS 2006</code> | <code>Sistema de aislamiento térmico exterior (SATE) con paneles de poliestireno expandido (EPS) de 40 mm, que ofrece una resistencia térmica de 1,05 m2·K/W, fijado con mortero de cemento y reforzado con malla de fibra de vidrio, terminado con un enfoscado monocapa de cemento, cumpliendo con la normativa UNE-EN 998-1.</code> | <code>Sistema de impermeabilización de techos con membrana asfáltica de 3 mm de espesor, con una resistencia a la tracción de 200 N/5 cm, fijada mecánicamente con tornillos de acero inoxidable y sellada con masilla de poliuretano, y revestida con gravilla de 10 mm de diámetro, para mejorar la durabilidad y la estética del acabado, con un peso mínimo de 300 g/m2, colocada en capas cruzadas y con un acabado rugoso, sin incluir la preparación del soporte. B1+R2 según CTE/DB-HS 2006.</code> |
317
+ | <code>Pared de cerramiento de dos caras vistas de 20 cm de espesor de bloque macizo de mortero cemento, de 400x90x200 mm, liso, blanco con componentes hidrofugantes, categoría I según la norma UNE-EN 771-3, tomado con mortero cemento 1:6 de cemento blanco de albañilería</code> | <code>Muro de cerramiento de doble cara de 20 cm de grosor, construido con bloques macizos de mortero de cemento de dimensiones 400x90x200 mm, acabado liso y blanco, con aditivos hidrofugantes, clasificado como categoría I según la norma UNE-EN 771-3, unido con mortero de cemento 1:6 de cemento blanco para albañilería.</code> | <code>Pared de soporte de una sola cara de 15 cm de espesor de ladrillo hueco de arcilla, de 300x150x200 mm, rugoso, rojo sin aditivos, categoría II según la norma UNE-EN 771-1, unida con mortero de cal 1:3 de cemento gris.</code> |
318
+ | <code>Hormigonado de losas con hormigón para armar con aditivo hidrófugo HA - 30 / B / 20 / XC4 + XD3 + XF4 + XM2 con una cantidad de cemento de 350 kg/m3 i relación agua cemento =< 0.5, colocado con cubilote</code> | <code>Vertido de losas utilizando hormigón armado con aditivo impermeabilizante HA - 30 / B / 20 / XC4 + XD3 + XF4 + XM2, con una dosificación de cemento de 350 kg/m3 y una relación agua-cemento menor o igual a 0.5, aplicado con cubilote.</code> | <code>Hormigonado de columnas con hormigón para estructuras de soporte con aditivo retardante HR - 25 / A / 15 / XC2 + XD1 + XF2 + XM1 con una cantidad de cemento de 400 kg/m3 y relación agua cemento =< 0.6, vertido con bomba.</code> |
319
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
320
+ ```json
321
+ {
322
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
323
+ "triplet_margin": 5
324
+ }
325
+ ```
326
+
327
+ ### Training Hyperparameters
328
+ #### Non-Default Hyperparameters
329
+
330
+ - `eval_strategy`: steps
331
+ - `per_device_train_batch_size`: 5
332
+ - `per_device_eval_batch_size`: 5
333
+ - `learning_rate`: 2e-05
334
+ - `num_train_epochs`: 5
335
+ - `warmup_ratio`: 0.1
336
+ - `fp16`: True
337
+ - `batch_sampler`: no_duplicates
338
+
339
+ #### All Hyperparameters
340
+ <details><summary>Click to expand</summary>
341
+
342
+ - `overwrite_output_dir`: False
343
+ - `do_predict`: False
344
+ - `eval_strategy`: steps
345
+ - `prediction_loss_only`: True
346
+ - `per_device_train_batch_size`: 5
347
+ - `per_device_eval_batch_size`: 5
348
+ - `per_gpu_train_batch_size`: None
349
+ - `per_gpu_eval_batch_size`: None
350
+ - `gradient_accumulation_steps`: 1
351
+ - `eval_accumulation_steps`: None
352
+ - `torch_empty_cache_steps`: None
353
+ - `learning_rate`: 2e-05
354
+ - `weight_decay`: 0.0
355
+ - `adam_beta1`: 0.9
356
+ - `adam_beta2`: 0.999
357
+ - `adam_epsilon`: 1e-08
358
+ - `max_grad_norm`: 1.0
359
+ - `num_train_epochs`: 5
360
+ - `max_steps`: -1
361
+ - `lr_scheduler_type`: linear
362
+ - `lr_scheduler_kwargs`: {}
363
+ - `warmup_ratio`: 0.1
364
+ - `warmup_steps`: 0
365
+ - `log_level`: passive
366
+ - `log_level_replica`: warning
367
+ - `log_on_each_node`: True
368
+ - `logging_nan_inf_filter`: True
369
+ - `save_safetensors`: True
370
+ - `save_on_each_node`: False
371
+ - `save_only_model`: False
372
+ - `restore_callback_states_from_checkpoint`: False
373
+ - `no_cuda`: False
374
+ - `use_cpu`: False
375
+ - `use_mps_device`: False
376
+ - `seed`: 42
377
+ - `data_seed`: None
378
+ - `jit_mode_eval`: False
379
+ - `use_ipex`: False
380
+ - `bf16`: False
381
+ - `fp16`: True
382
+ - `fp16_opt_level`: O1
383
+ - `half_precision_backend`: auto
384
+ - `bf16_full_eval`: False
385
+ - `fp16_full_eval`: False
386
+ - `tf32`: None
387
+ - `local_rank`: 0
388
+ - `ddp_backend`: None
389
+ - `tpu_num_cores`: None
390
+ - `tpu_metrics_debug`: False
391
+ - `debug`: []
392
+ - `dataloader_drop_last`: False
393
+ - `dataloader_num_workers`: 0
394
+ - `dataloader_prefetch_factor`: None
395
+ - `past_index`: -1
396
+ - `disable_tqdm`: False
397
+ - `remove_unused_columns`: True
398
+ - `label_names`: None
399
+ - `load_best_model_at_end`: False
400
+ - `ignore_data_skip`: False
401
+ - `fsdp`: []
402
+ - `fsdp_min_num_params`: 0
403
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
404
+ - `fsdp_transformer_layer_cls_to_wrap`: None
405
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
406
+ - `deepspeed`: None
407
+ - `label_smoothing_factor`: 0.0
408
+ - `optim`: adamw_torch
409
+ - `optim_args`: None
410
+ - `adafactor`: False
411
+ - `group_by_length`: False
412
+ - `length_column_name`: length
413
+ - `ddp_find_unused_parameters`: None
414
+ - `ddp_bucket_cap_mb`: None
415
+ - `ddp_broadcast_buffers`: False
416
+ - `dataloader_pin_memory`: True
417
+ - `dataloader_persistent_workers`: False
418
+ - `skip_memory_metrics`: True
419
+ - `use_legacy_prediction_loop`: False
420
+ - `push_to_hub`: False
421
+ - `resume_from_checkpoint`: None
422
+ - `hub_model_id`: None
423
+ - `hub_strategy`: every_save
424
+ - `hub_private_repo`: False
425
+ - `hub_always_push`: False
426
+ - `gradient_checkpointing`: False
427
+ - `gradient_checkpointing_kwargs`: None
428
+ - `include_inputs_for_metrics`: False
429
+ - `eval_do_concat_batches`: True
430
+ - `fp16_backend`: auto
431
+ - `push_to_hub_model_id`: None
432
+ - `push_to_hub_organization`: None
433
+ - `mp_parameters`:
434
+ - `auto_find_batch_size`: False
435
+ - `full_determinism`: False
436
+ - `torchdynamo`: None
437
+ - `ray_scope`: last
438
+ - `ddp_timeout`: 1800
439
+ - `torch_compile`: False
440
+ - `torch_compile_backend`: None
441
+ - `torch_compile_mode`: None
442
+ - `dispatch_batches`: None
443
+ - `split_batches`: None
444
+ - `include_tokens_per_second`: False
445
+ - `include_num_input_tokens_seen`: False
446
+ - `neftune_noise_alpha`: None
447
+ - `optim_target_modules`: None
448
+ - `batch_eval_metrics`: False
449
+ - `eval_on_start`: False
450
+ - `eval_use_gather_object`: False
451
+ - `batch_sampler`: no_duplicates
452
+ - `multi_dataset_batch_sampler`: proportional
453
+
454
+ </details>
455
+
456
+ ### Training Logs
457
+ | Epoch | Step | Training Loss | Validation Loss | validation-set_max_accuracy |
458
+ |:------:|:----:|:-------------:|:---------------:|:---------------------------:|
459
+ | 0.7067 | 200 | 4.3691 | 3.3158 | 0.9318 |
460
+ | 1.4134 | 400 | 2.0025 | 1.2971 | 0.9716 |
461
+ | 2.1201 | 600 | 1.0978 | 1.1959 | 0.9716 |
462
+ | 2.8269 | 800 | 0.7522 | 0.6714 | 0.9943 |
463
+ | 3.5336 | 1000 | 0.5156 | 0.7532 | 0.9659 |
464
+ | 4.2403 | 1200 | 0.3121 | 0.5983 | 0.9773 |
465
+ | 4.9470 | 1400 | 0.2111 | 0.5432 | 0.9773 |
466
+ | 5.0 | 1415 | - | - | 0.9773 |
467
+
468
+
469
+ ### Framework Versions
470
+ - Python: 3.10.12
471
+ - Sentence Transformers: 3.2.0
472
+ - Transformers: 4.44.2
473
+ - PyTorch: 2.4.1+cu121
474
+ - Accelerate: 0.34.2
475
+ - Datasets: 3.0.1
476
+ - Tokenizers: 0.19.1
477
+
478
+ ## Citation
479
+
480
+ ### BibTeX
481
+
482
+ #### Sentence Transformers
483
+ ```bibtex
484
+ @inproceedings{reimers-2019-sentence-bert,
485
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
486
+ author = "Reimers, Nils and Gurevych, Iryna",
487
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
488
+ month = "11",
489
+ year = "2019",
490
+ publisher = "Association for Computational Linguistics",
491
+ url = "https://arxiv.org/abs/1908.10084",
492
+ }
493
+ ```
494
+
495
+ #### TripletLoss
496
+ ```bibtex
497
+ @misc{hermans2017defense,
498
+ title={In Defense of the Triplet Loss for Person Re-Identification},
499
+ author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
500
+ year={2017},
501
+ eprint={1703.07737},
502
+ archivePrefix={arXiv},
503
+ primaryClass={cs.CV}
504
+ }
505
+ ```
506
+
507
+ <!--
508
+ ## Glossary
509
+
510
+ *Clearly define terms in order to be accessible across audiences.*
511
+ -->
512
+
513
+ <!--
514
+ ## Model Card Authors
515
+
516
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
517
+ -->
518
+
519
+ <!--
520
+ ## Model Card Contact
521
+
522
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
523
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "intfloat/multilingual-e5-large",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.0",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.4.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a4ba380b7a564699031f5d413fc095fe8d9bfdbb915fe76ec08e5200ce119e94
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ },
20
+ {
21
+ "idx": 3,
22
+ "name": "linear_adapter",
23
+ "path": "3_MyLinearAdapter",
24
+ "type": "__main__.MyLinearAdapter"
25
+ }
26
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 512,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "XLMRobertaTokenizer",
53
+ "unk_token": "<unk>"
54
+ }