inoid commited on
Commit
b3f8931
1 Parent(s): 77631ca

Upload README_es.md

Browse files
Files changed (1) hide show
  1. README_es.md +298 -0
README_es.md ADDED
@@ -0,0 +1,298 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ library_name: peft
4
+ tags:
5
+ - generated_from_trainer
6
+ base_model: BioMistral/BioMistral-7B
7
+ model-index:
8
+ - name: spanish_medica_llm
9
+ results: []
10
+ datasets:
11
+ - somosnlp/SMC
12
+ language:
13
+ - es
14
+ pipeline_tag: text-generation
15
+ ---
16
+
17
+ <!-- This model card has been generated automatically according to the information the Trainer had access to. You
18
+ should probably proofread and complete it, then remove this comment. -->
19
+ <!-- Email de contacto para´posibles preguntas sobre el modelo. -->
20
+
21
+ <!--- ############################################################################################################################### -----!>
22
+ <!--
23
+ Esta plantilla de Model Card es una adaptación de la de Hugging Face: https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/modelcard_template.md
24
+
25
+ ¿Cómo utilizar esta plantilla? Copia el contenido en el README.md del repo de tu modelo en el Hub de Hugging Face y rellena cada sección.
26
+
27
+ Para más información sobre cómo rellenar cada sección ver las docs: https://huggingface.co/docs/hub/model-cards
28
+ -->
29
+
30
+ # Model Card for SpanishMedicaLLM
31
+
32
+ <!--
33
+
34
+ Nombre del modelo:
35
+
36
+ Suele haber un nombre corto ("pretty name") para las URLs, tablas y demás y uno largo más descriptivo. Para crear el pretty name podéis utilizar acrónimos.
37
+
38
+ Idioma:
39
+
40
+ La Model Card puede estar en español o en inglés. Recomendamos que sea en inglés para que la comunidad internacional pueda utilizar vuestro dataset. Teniendo en cuenta que somos una comunidad hispanohablante y no queremos que el idioma sea una barrera, la opción más inclusiva sería escribirla en un idioma y traducirla (automáticamente?) al otro. En el repo entonces habría un README.md (Model Card en inglés) que enlazaría a un README_ES.md (Model Card en español), o viceversa, README.md y README_EN.md. Si necesitáis apoyo con la traducción os podemos ayudar.
41
+
42
+ Qué incluir en esta sección:
43
+
44
+ Esta sección es como el abstract. Escribir un resumen del modelo y motivación del proyecto (inc. los ODS relacionados). Si el proyecto tiene un logo, incluidlo aquí.
45
+
46
+ Si queréis incluir una versión de la Model Card en español, enlazadla aquí al principio (e.g. "A Spanish version of this Model Card can be found under [`README_es.md`](URL)"). De manera análoga para el inglés.
47
+
48
+ -->
49
+
50
+ Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs, para la obtención de información médica de forma libre y segura,
51
+ cumpliendo con los objetivo del milenio: Salud y Bienestar, Educación y Calidad, Fin de la Pobreza propuestos por la ONU.
52
+ Existen pocos LLM para el dominio médico en idioma español.
53
+
54
+ El objetivo de este proyecto es crear un gran modelo de lenguaje (LLM; siglas en inglés) para el contexto médico en español permitiendo crear soluciones
55
+ y servicios de información de salud en LATAM. El modelo contará con información de medicinas convencionales, naturales y tradicionales.
56
+ Un resultado del proyecto es un conjunto de datos público del dominio médico que agrupa recursos de otras fuentes que permite crear o ajustar LLM.
57
+ Los resultados del desempeño del LLM se comparan con otros modelos del state-of-the-art como BioMistral, Meditron, MedPalm.
58
+
59
+ ## Model Details
60
+
61
+ ### Model Description
62
+
63
+ <!-- Resumen del modelo. -->
64
+
65
+ - **Developed by:** [Dionis López Ramos](https://www.linkedin.com/in/dionis-lopez-ramos/), [Alvaro Garcia Barragan](https://huggingface.co/Alvaro8gb), [Dylan Montoya](https://huggingface.co/dylanmontoya22), [Daniel Bermúdez](https://huggingface.co/Danielbrdz) <!-- Nombre de los miembros del equipo -->
66
+ <!-- Nombre de los miembros del equipo -->
67
+ - **Funded by:** SomosNLP, HuggingFace <!-- Si contasteis con apoyo de otra entidad (e.g. vuestra universidad), añadidla aquí -->
68
+ - **Model type:** Language model, instruction tuned
69
+ - **Language(s):** Spanish (`es-ES`, `es-CL`) <!-- Enumerar las lenguas en las que se ha entrenado el modelo, especificando el país de origen. Utilizar códigos ISO. Por ejemplo: Spanish (`es-CL`, `es-ES`, `es-MX`), Catalan (`ca`), Quechua (`qu`). -->
70
+ - **License:** apache-2.0 <!-- Elegid una licencia lo más permisiva posible teniendo en cuenta la licencia del model pre-entrenado y los datasets utilizados -->
71
+ - **Fine-tuned from model:** [BioMistral/BioMistral-7B](https://huggingface.co/BioMistral/BioMistral-7B) <!-- Enlace al modelo pre-entrenado que habéis utilizado como base -->
72
+ - **Dataset used:** [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/) <!-- Enlace al dataset utilizado para el ajuste -->
73
+
74
+ ### Model Sources
75
+
76
+ - **Repository:** [spaces/somosnlp/SpanishMedicaLLM/](https://huggingface.co/spaces/somosnlp/SpanishMedicaLLM/tree/main) <!-- Enlace al `main` del repo donde tengáis los scripts, i.e.: o del mismo repo del modelo en HuggingFace o a GitHub. -->
77
+ - **Paper:** "Comming soon!" <!-- Si vais a presentarlo a NAACL poned "WIP", "Comming soon!" o similar. Si no tenéis intención de presentarlo a ninguna conferencia ni escribir un preprint, eliminar. -->
78
+ - **Demo:** [spaces/somosnlp/SpanishMedicaLLM](https://huggingface.co/spaces/somosnlp/SpanishMedicaLLM) <!-- Enlace a la demo -->
79
+ - **Video presentation:** [SpanishMedicaLLM | Proyecto Hackathon #SomosNLP ](https://www.youtube.com/watch?v=tVe_MC7Da6k) <!-- Enlace a vuestro vídeo de presentación en YouTube (están todos subidos aquí: https://www.youtube.com/playlist?list=PLTA-KAy8nxaASMwEUWkkTfMaDxWBxn-8J) -->
80
+
81
+
82
+ ## Uses
83
+
84
+ <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
85
+
86
+ ### Direct Use
87
+
88
+ <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
89
+
90
+ [More Information Needed]
91
+
92
+ ### Out-of-Scope Use
93
+
94
+ <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
95
+
96
+ Los creadores del LLM no se hacen responsable de resultados nocivos que puedan generar. Se sugiere un proceso de evaluación riguroso con especialistas
97
+ de los resultados generados.
98
+
99
+ ## Bias, Risks, and Limitations
100
+
101
+ <!-- This section is meant to convey both technical and sociotechnical limitations. -->
102
+
103
+ [More Information Needed]
104
+
105
+ ### Recommendations
106
+
107
+ <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
108
+
109
+ <!-- Example: Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. -->
110
+
111
+ ## How to Get Started with the Model
112
+
113
+ Use the code below to get started with the model.
114
+
115
+ ```
116
+ HUB_MODEL_ID = '/somosnlp/spanish_medica_llm'
117
+ config = PeftConfig.from_pretrained(HUB_MODEL_ID)
118
+ model = AutoModelForCausalLM.from_pretrained(HUB_MODEL_ID, return_dict=True, load_in_8bit=True, device_map={"":0})
119
+
120
+ ```
121
+
122
+ ## Training Details
123
+
124
+ ### Training Data
125
+
126
+ <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
127
+
128
+ Dataset used was [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/)
129
+
130
+ ### Training Procedure
131
+
132
+ <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
133
+
134
+ <!-- Detallar la técnica de entrenamiento utilizada y enlazar los scripts/notebooks. -->
135
+
136
+
137
+ #### Training Hyperparameters
138
+
139
+ <!-- Enumerar los valores de los hiperparámetros de entrenamiento. -->
140
+
141
+ **Training regime:**
142
+ - learning_rate: 2.5e-05
143
+ - train_batch_size: 16
144
+ - eval_batch_size: 1
145
+ - seed: 42
146
+ - gradient_accumulation_steps: 4
147
+ - total_train_batch_size: 64
148
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
149
+ - lr_scheduler_type: linear
150
+ - lr_scheduler_warmup_steps: 5
151
+ - training_steps: 2
152
+ - mixed_precision_training: Native AMP
153
+ - <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
154
+
155
+ ## Evaluation
156
+
157
+ <!-- This section describes the evaluation protocols and provides the results. -->
158
+
159
+ ### Testing Data, Factors & Metrics
160
+
161
+ #### Testing Data
162
+
163
+ <!-- This should link to a Dataset Card. -->
164
+
165
+ El corpus usado fue un 20% de [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/)
166
+
167
+ #### Factors
168
+
169
+ <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
170
+
171
+ [More Information Needed]
172
+
173
+ #### Metrics
174
+
175
+ <!-- These are the evaluation metrics being used, ideally with a description of why. -->
176
+
177
+ [More Information Needed]
178
+
179
+ ### Results
180
+
181
+ <!-- Enlazar aquí los scripts/notebooks de evaluación y especificar los resultados. -->
182
+
183
+ [More Information Needed]
184
+
185
+ ## Environmental Impact
186
+
187
+ <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly. -->
188
+
189
+ <!-- Rellenar la información de la lista y calcular las emisiones con la página mencionada. -->
190
+
191
+ Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
192
+
193
+ - **Hardware Type:** GPU
194
+ - **Hours used:** 4 Horas
195
+ - **Cloud Provider:** [Hugginface](https://huggingface.co)
196
+ - **Compute Region:** [More Information Needed]
197
+ - **Carbon Emitted:** [More Information Needed]
198
+
199
+
200
+ ### Model Architecture and Objective
201
+
202
+ Se utilizó la arquitectura de [BioMistral/BioMistral-7B](https://huggingface.co/BioMistral/BioMistral-7B) porque es un modelo fundacional
203
+ entrenado con un conjunto de datos de dominio médico.
204
+
205
+ ### Compute Infrastructure
206
+
207
+ [More Information Needed]
208
+
209
+ #### Hardware
210
+
211
+ <!-- Indicar el hardware utilizado, podéis agradecer aquí a quien lo patrocinó. -->
212
+
213
+ Nvidia T4 Small 4 vCPU 15 GB RAM 16 GB VRAM
214
+
215
+ #### Software
216
+
217
+ <!-- Enumerar las librerías utilizadas (e.g. transformers, distilabel). -->
218
+
219
+ - transformers==4.38.0
220
+ - torch>=2.1.1+cu113
221
+ - trl @ git+https://github.com/huggingface/trl
222
+ - peft
223
+ - wandb
224
+ - accelerate
225
+ - datasets
226
+
227
+ [More Information Needed]
228
+
229
+ ## License
230
+
231
+ <!-- Indicar bajo qué licencia se libera el modelo explicando, si no es apache 2.0, a qué se debe la licencia más restrictiva (i.e. herencia de las licencias del modelo pre-entrenado o de los datos utilizados). -->
232
+
233
+ Apache License 2.0
234
+ ## Citation
235
+
236
+ **BibTeX:**
237
+
238
+ ```
239
+ @software{lopez2024spanishmedicallm,
240
+ author = {Lopez Dionis, Garcia Alvaro, Montoya Dylan, Bermúdez Daniel},
241
+ title = {SpanishMedicaLLM},
242
+ month = February,
243
+ year = 2024,
244
+ url = {https://huggingface.co/datasets/HuggingFaceTB/cosmopedia}
245
+ }
246
+ ```
247
+ <!--
248
+
249
+ Aquí tenéis un ejemplo de cita de un dataset que podéis adaptar:
250
+
251
+ ```
252
+ @software{benallal2024cosmopedia,
253
+ author = {Ben Allal, Loubna and Lozhkov, Anton and Penedo, Guilherme and Wolf, Thomas and von Werra, Leandro},
254
+ title = {Cosmopedia},
255
+ month = February,
256
+ year = 2024,
257
+ url = {https://huggingface.co/datasets/HuggingFaceTB/cosmopedia}
258
+ }
259
+ ```
260
+
261
+ - benallal2024cosmopedia -> nombre + año + nombre del modelo
262
+ - author: lista de miembros del equipo
263
+ - title: nombre del modelo
264
+ - year: año
265
+ - url: enlace al modelo
266
+
267
+ -->
268
+
269
+
270
+ ## More Information
271
+
272
+ <!-- Indicar aquí que el marco en el que se desarrolló el proyecto, en esta sección podéis incluir agradecimientos y más información sobre los miembros del equipo. Podéis adaptar el ejemplo a vuestro gusto. -->
273
+
274
+ Este proyecto fue desarrollado durante el [Hackathon #Somos600M](https://somosnlp.org/hackathon) organizado por SomosNLP.
275
+ El modelo fue entrenado usando GPU patrocinado por HuggingFace.
276
+
277
+ <!--
278
+ This project was developed during the [Hackathon #Somos600M](https://somosnlp.org/hackathon) organized by SomosNLP.
279
+ The model was trained using GPUs sponsored by HuggingFace.
280
+ -->
281
+
282
+ **Team:**
283
+
284
+ <!--
285
+ - [Name 1](Link to Hugging Face profile)
286
+ - [Name 2](Link to Hugging Face profile)
287
+ -->
288
+
289
+ - [Dionis López Ramos](https://huggingface.co/inoid)
290
+ - [Alvaro Garcia Barragan](https://huggingface.co/Alvaro8gb)
291
+ - [Dylan Montoya](https://huggingface.co/dylanmontoya22)
292
+ - [Daniel Bermúdez](https://huggingface.co/Danielbrdz)
293
+ ## Contact
294
+
295
+ <!-- Email de contacto para´posibles preguntas sobre el modelo. -->
296
+ <!-- For any doubt or suggestion contact to: PhD Dionis López ([email protected]) -->
297
+
298
+ Para cualquier duda contactar a: Dr.C Dionis López ([email protected])