File size: 4,519 Bytes
010f537
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
a0f9a41
010f537
ce4c0c2
010f537
ce4c0c2
010f537
ce4c0c2
010f537
ce4c0c2
 
010f537
ce4c0c2
010f537
a0f9a41
010f537
ce4c0c2
010f537
ce4c0c2
010f537
ce4c0c2
 
 
 
 
 
 
 
 
010f537
ce4c0c2
010f537
ce4c0c2
010f537
ce4c0c2
010f537
ce4c0c2
 
 
 
 
010f537
ce4c0c2
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
---
library_name: peft
tags:
- trl
- sft
- generated_from_trainer
base_model: llava-hf/llava-1.5-7b-hf
model-index:
- name: llava-1.5-7b-hf-ft-mix-vsft
  results: []
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# llava-1.5-7b-hf-ft-mix-vsft

Эта модель является дообученной версией [llava-hf/llava-1.5-7b-hf](https://huggingface.co/llava-hf/llava-1.5-7b-hf) на датасете HuggingFaceH4/llava-instruct-mix-vsft

## Описание модели

Эта модель была дообучена для улучшения её производительности в специфических задачах. Процесс дообучения включал адаптацию базовой модели с использованием методов Low-Rank Adaptation (LoRA) и Supervised Fine-Tuning (SFT), что делает её более эффективной для целевых приложений.

## Предназначенные использования и ограничения

- **Предназначенные использования**: Модель предназначена для задач, связанных с условной генерацией текста и распознаванием изображений. Она может быть использована в чат-ботах, интерактивных системах и других приложениях, требующих высококачественных ответов.
- **Ограничения**: Модель может не показывать хороших результатов в задачах, значительно отличающихся от тех, для которых она была дообучена. Также важно оценить её производительность на вашем конкретном датасете, чтобы убедиться, что она соответствует вашим требованиям.

## Данные для обучения и оценки

Модель была дообучена на смешанном датасете HuggingFaceH4/llava-instruct-mix-vsft, предназначенном для инструкционных задач и визуального распознавания. Более подробная информация о датасете необходима. Ссылка на датасет 

## Процедура обучения

### Гиперпараметры обучения

Следующие гиперпараметры использовались во время обучения:
- **learning_rate**: 1.4e-05
- **train_batch_size**: 4
- **eval_batch_size**: 8
- **seed**: 42
- **optimizer**: Adam с betas=(0.9, 0.999) и epsilon=1e-08
- **lr_scheduler_type**: linear
- **num_epochs**: 1
- **mixed_precision_training**: Native AMP

### Результаты обучения

Результаты обучения в TensorBoard.

### Версии фреймворков

- **PEFT**: 0.10.0
- **Transformers**: 4.40.0
- **Pytorch**: 2.2.1+cu121
- **Datasets**: 2.19.0
- **Tokenizers**: 0.19.1

## Дополнительная информация

- **Квантование**: Модель использует конфигурацию квантования для оптимизации использования памяти и вычислительных ресурсов, что позволяет запускать её на устройствах с ограниченными ресурсами без значительной потери точности.
- **LoRA (Low-Rank Adaptation)**: Эта техника использовалась для дообучения модели путем адаптации её параметров в вычислительно эффективной форме, сокращая время и ресурсы, необходимые для обучения.
- **SFT (Supervised Fine-Tuning)**: Модель была дообучена с использованием SFTTrainer, что обеспечивает её хорошую адаптацию к специфическим задачам, на которых она была обучена, улучшая её производительность и надежность.