|
--- |
|
library_name: transformers |
|
license: mit |
|
datasets: |
|
- microsoft/ms_marco |
|
base_model: |
|
- meta-llama/Llama-3.2-1B |
|
--- |
|
|
|
# llama-3.2-1B-MS-MARCO-QLoRA-v3 |
|
|
|
Este modelo es una versi贸n afinada del modelo [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) utilizando el conjunto de datos MS MARCO para tareas de generaci贸n de respuestas. |
|
|
|
## Descripci贸n del Modelo |
|
|
|
- **Modelo Base:** meta-llama/Llama-3.2-1B |
|
- **T茅cnicas Utilizadas:** |
|
- Quantization con QLoRA |
|
- Afinaci贸n con LoRA y PEFT |
|
- **Arquitectura:** |
|
- Par谩metros entrenables: Solo los adaptadores LoRA |
|
- Par谩metros totales: 771819520 |
|
- Par谩metros entrenables: 22544384 |
|
|
|
## Conjunto de Datos |
|
|
|
- **Nombre del Conjunto de Datos:** MS MARCO |
|
- **Descripci贸n:** Conjunto de datos de comprensi贸n lectora a gran escala que incluye preguntas y respuestas reales de usuarios. |
|
- **Tama帽o del Conjunto de Entrenamiento:** 56588 |
|
- **Tama帽o del Conjunto de Validaci贸n:** 14148 |
|
- **Preprocesamiento:** |
|
- Limpieza de texto |
|
- Tokenizaci贸n |
|
- Creaci贸n de prompts combinando contexto, pregunta y respuesta |
|
|
|
## Entrenamiento |
|
|
|
- **Hiperpar谩metros:** |
|
- N煤mero de 茅pocas: 7 |
|
- Tama帽o de lote de entrenamiento: 8 |
|
- Tama帽o de lote de evaluaci贸n: 8 |
|
- Tasa de aprendizaje: 0.0002 |
|
- **Configuraci贸n de LoRA:** |
|
- r (rango): 32 |
|
- lora_alpha: 32 |
|
- lora_dropout: 0.05 |
|
- **Recursos Computacionales:** |
|
- Dispositivo: cuda |
|
- Memoria GPU utilizada: A100(40gb) |
|
|
|
## Resultados |
|
|
|
### M茅tricas |
|
|
|
- **P茅rdida de Entrenamiento Final:** 1.8747 |
|
- **P茅rdida de Validaci贸n Final:** 2.0278 |
|
|
|
### Gr谩ficas |
|
|
|
![Curva de P茅rdida](./loss_curve.png) |
|
|
|
## Uso del Modelo |
|
|
|
Para utilizar este modelo, puedes cargarlo de la siguiente manera: |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA-v3') |
|
tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA-v3') |
|
``` |
|
|
|
#Ejemplo de Generaci贸n |
|
```python |
|
def generate_answer(prompt): |
|
inputs = tokenizer(prompt, return_tensors='pt').to(device) |
|
outputs = model.generate(**inputs, max_length=512, do_sample=True, temperature=0.7) |
|
answer = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
return answer |
|
|
|
# Ejemplo de uso |
|
prompt = 'Context: |
|
[Tu contexto aqu铆] |
|
|
|
Question: |
|
[Tu pregunta aqu铆] |
|
|
|
Answer:' |
|
respuesta = generate_answer(prompt) |
|
print(respuesta) |
|
``` |
|
|
|
# Consideraciones 脡ticas y Licencia |
|
- Licencia: MIT |
|
- Consideraciones 脡ticas: El modelo puede generar respuestas basadas en datos entrenados. Se debe usar con precauci贸n y verificar la exactitud de las respuestas. |
|
|
|
|
|
# Limitaciones |
|
- El modelo fue entrenado en un conjunto de datos espec铆fico y puede no generalizar bien a otros dominios. |
|
- Puede generar respuestas incorrectas o sesgadas. |
|
|
|
|
|
# Referencias |
|
1- **MS MARCO Dataset:** |
|
|
|
@misc{bajaj2018msmarcohumangenerated, |
|
title={MS MARCO: A Human Generated MAchine Reading COmprehension Dataset}, |
|
author={Payal Bajaj and Daniel Campos and Nick Craswell and Li Deng and Jianfeng Gao and Xiaodong Liu and Rangan Majumder and Andrew McNamara and Bhaskar Mitra and Tri Nguyen and Mir Rosenberg and Xia Song and Alina Stoica and Saurabh Tiwary and Tong Wang}, |
|
year={2018}, |
|
eprint={1611.09268}, |
|
archivePrefix={arXiv}, |
|
primaryClass={cs.CL}, |
|
url={https://arxiv.org/abs/1611.09268}, |
|
} |
|
|
|
2- **QLoRA Paper:** |
|
|
|
@misc{dettmers2023qloraefficientfinetuningquantized, |
|
title={QLoRA: Efficient Finetuning of Quantized LLMs}, |
|
author={Tim Dettmers and Artidoro Pagnoni and Ari Holtzman and Luke Zettlemoyer}, |
|
year={2023}, |
|
eprint={2305.14314}, |
|
archivePrefix={arXiv}, |
|
primaryClass={cs.LG}, |
|
url={https://arxiv.org/abs/2305.14314}, |
|
} |
|
|
|
3- [**PEFT Library**](https://huggingface.co/docs/peft/index) |
|
|
|
4- **LoRA Paper:** |
|
|
|
```bibtex |
|
@misc{hu2021loralowrankadaptationlarge, |
|
title={LoRA: Low-Rank Adaptation of Large Language Models}, |
|
author={Edward J. Hu and Yelong Shen and Phillip Wallis and Zeyuan Allen-Zhu and Yuanzhi Li and Shean Wang and Lu Wang and Weizhu Chen}, |
|
year={2021}, |
|
eprint={2106.09685}, |
|
archivePrefix={arXiv}, |
|
primaryClass={cs.CL}, |
|
url={https://arxiv.org/abs/2106.09685}, |
|
} |
|
``` |
|
|
|
5- [**BitsAndBytes Library** ](https://github.com/bitsandbytes-foundation/bitsandbytes) |
|
|