Update README.md
Browse files
README.md
CHANGED
|
@@ -35,14 +35,14 @@ Bu model, [Muhammed Kayra Bulut](https://github.com/kaayra2000) tarafından haz
|
|
| 35 |
- **Dil**: Türkçe
|
| 36 |
- **Model Boyutu**: 8 milyar parametre
|
| 37 |
- **Taban Model**: Meta-Llama-3-8B
|
| 38 |
-
- **Eğitim Verisi**: 321.179 adet Türkçe hasta-doktor soru-cevap çiftinden oluşan özel bir veri
|
| 39 |
- **Amaç**: Türkçe sağlık danışmanlığı alanında etkili ve güvenilir bir dil modeli oluşturmak.
|
| 40 |
|
| 41 |
## Eğitim Süreci
|
| 42 |
|
| 43 |
Modelin eğitimi ve ince ayarı şu adımlarla gerçekleştirilmiştir:
|
| 44 |
|
| 45 |
-
1. **Veri Toplama ve İşleme**: Doktor-hasta yazılı iletişimlerinden oluşan geniş bir veri
|
| 46 |
2. **İnce Ayar (Fine-Tuning)**: Meta-Llama-3-8B tabanlı model, Türkçe sağlık verileriyle ince ayar yapılarak eğitilmiştir.
|
| 47 |
3. **Değerlendirme**: Modelin performansı ROUGE, BLEU, BERT Score gibi metriklerle ve uzman değerlendirmeleriyle ölçülmüştür.
|
| 48 |
|
|
@@ -79,6 +79,9 @@ Daha detaylı bilgi için [yüksek lisans tezine](https://tez.yok.gov.tr/UlusalT
|
|
| 79 |
3. **Modelin Yüklenmesi ve Kullanımı:**
|
| 80 |
|
| 81 |
```python
|
|
|
|
|
|
|
|
|
|
| 82 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 83 |
|
| 84 |
tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
|
|
@@ -164,6 +167,9 @@ cd doktor-meta-llama-3-8b
|
|
| 164 |
3. **Loading and Using the Model:**
|
| 165 |
|
| 166 |
```python
|
|
|
|
|
|
|
|
|
|
| 167 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 168 |
|
| 169 |
tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
|
|
|
|
| 35 |
- **Dil**: Türkçe
|
| 36 |
- **Model Boyutu**: 8 milyar parametre
|
| 37 |
- **Taban Model**: Meta-Llama-3-8B
|
| 38 |
+
- **Eğitim Verisi**: 321.179 adet Türkçe hasta-doktor soru-cevap çiftinden oluşan özel bir veri kümesi kullanılmıştır.
|
| 39 |
- **Amaç**: Türkçe sağlık danışmanlığı alanında etkili ve güvenilir bir dil modeli oluşturmak.
|
| 40 |
|
| 41 |
## Eğitim Süreci
|
| 42 |
|
| 43 |
Modelin eğitimi ve ince ayarı şu adımlarla gerçekleştirilmiştir:
|
| 44 |
|
| 45 |
+
1. **Veri Toplama ve İşleme**: Doktor-hasta yazılı iletişimlerinden oluşan geniş bir veri kümesi toplanmış, temizlenmiş ve modele uygun hale getirilmiştir.
|
| 46 |
2. **İnce Ayar (Fine-Tuning)**: Meta-Llama-3-8B tabanlı model, Türkçe sağlık verileriyle ince ayar yapılarak eğitilmiştir.
|
| 47 |
3. **Değerlendirme**: Modelin performansı ROUGE, BLEU, BERT Score gibi metriklerle ve uzman değerlendirmeleriyle ölçülmüştür.
|
| 48 |
|
|
|
|
| 79 |
3. **Modelin Yüklenmesi ve Kullanımı:**
|
| 80 |
|
| 81 |
```python
|
| 82 |
+
from huggingface_hub import login
|
| 83 |
+
login("hesaba_ait_token")
|
| 84 |
+
|
| 85 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 86 |
|
| 87 |
tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
|
|
|
|
| 167 |
3. **Loading and Using the Model:**
|
| 168 |
|
| 169 |
```python
|
| 170 |
+
from huggingface_hub import login
|
| 171 |
+
login("your_token")
|
| 172 |
+
|
| 173 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 174 |
|
| 175 |
tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
|