kayrab commited on
Commit
0290a9a
·
verified ·
1 Parent(s): a54d506

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -2
README.md CHANGED
@@ -35,14 +35,14 @@ Bu model, [Muhammed Kayra Bulut](https://github.com/kaayra2000) tarafından haz
35
  - **Dil**: Türkçe
36
  - **Model Boyutu**: 8 milyar parametre
37
  - **Taban Model**: Meta-Llama-3-8B
38
- - **Eğitim Verisi**: 321.179 adet Türkçe hasta-doktor soru-cevap çiftinden oluşan özel bir veri seti kullanılmıştır.
39
  - **Amaç**: Türkçe sağlık danışmanlığı alanında etkili ve güvenilir bir dil modeli oluşturmak.
40
 
41
  ## Eğitim Süreci
42
 
43
  Modelin eğitimi ve ince ayarı şu adımlarla gerçekleştirilmiştir:
44
 
45
- 1. **Veri Toplama ve İşleme**: Doktor-hasta yazılı iletişimlerinden oluşan geniş bir veri seti toplanmış, temizlenmiş ve modele uygun hale getirilmiştir.
46
  2. **İnce Ayar (Fine-Tuning)**: Meta-Llama-3-8B tabanlı model, Türkçe sağlık verileriyle ince ayar yapılarak eğitilmiştir.
47
  3. **Değerlendirme**: Modelin performansı ROUGE, BLEU, BERT Score gibi metriklerle ve uzman değerlendirmeleriyle ölçülmüştür.
48
 
@@ -79,6 +79,9 @@ Daha detaylı bilgi için [yüksek lisans tezine](https://tez.yok.gov.tr/UlusalT
79
  3. **Modelin Yüklenmesi ve Kullanımı:**
80
 
81
  ```python
 
 
 
82
  from transformers import AutoModelForCausalLM, AutoTokenizer
83
 
84
  tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
@@ -164,6 +167,9 @@ cd doktor-meta-llama-3-8b
164
  3. **Loading and Using the Model:**
165
 
166
  ```python
 
 
 
167
  from transformers import AutoModelForCausalLM, AutoTokenizer
168
 
169
  tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
 
35
  - **Dil**: Türkçe
36
  - **Model Boyutu**: 8 milyar parametre
37
  - **Taban Model**: Meta-Llama-3-8B
38
+ - **Eğitim Verisi**: 321.179 adet Türkçe hasta-doktor soru-cevap çiftinden oluşan özel bir veri kümesi kullanılmıştır.
39
  - **Amaç**: Türkçe sağlık danışmanlığı alanında etkili ve güvenilir bir dil modeli oluşturmak.
40
 
41
  ## Eğitim Süreci
42
 
43
  Modelin eğitimi ve ince ayarı şu adımlarla gerçekleştirilmiştir:
44
 
45
+ 1. **Veri Toplama ve İşleme**: Doktor-hasta yazılı iletişimlerinden oluşan geniş bir veri kümesi toplanmış, temizlenmiş ve modele uygun hale getirilmiştir.
46
  2. **İnce Ayar (Fine-Tuning)**: Meta-Llama-3-8B tabanlı model, Türkçe sağlık verileriyle ince ayar yapılarak eğitilmiştir.
47
  3. **Değerlendirme**: Modelin performansı ROUGE, BLEU, BERT Score gibi metriklerle ve uzman değerlendirmeleriyle ölçülmüştür.
48
 
 
79
  3. **Modelin Yüklenmesi ve Kullanımı:**
80
 
81
  ```python
82
+ from huggingface_hub import login
83
+ login("hesaba_ait_token")
84
+
85
  from transformers import AutoModelForCausalLM, AutoTokenizer
86
 
87
  tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")
 
167
  3. **Loading and Using the Model:**
168
 
169
  ```python
170
+ from huggingface_hub import login
171
+ login("your_token")
172
+
173
  from transformers import AutoModelForCausalLM, AutoTokenizer
174
 
175
  tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-meta-llama-3-8b")