mT5 Tabanlı Türkçe Haber Özetleme Modeli

Model Genel Bilgisi

Bu model, mT5 tabanlı olup, Türkçe haber metinlerini özetlemek amacıyla özel olarak ince ayar yapılmıştır. Google/mT5-base mimarisi üzerine inşa edilerek, Türkçe ekonomi ve güncel haber metinlerinden oluşan bir veri seti kullanılarak eğitilmiştir. Bu model, haber metinlerinin özetlerini üreterek, kullanıcılara haberin en önemli noktalarını sunmayı amaçlamaktadır.

Modelin Amacı

Bu modelin temel kullanım amacı, uzun Türkçe haber metinlerini kısa ve anlaşılır özetler haline getirmektir. Potansiyel kullanım alanları:

  • Haber özetleme platformları

Kullanım Şekli

from transformers import MT5Tokenizer, MT5ForConditionalGeneration

# Model ve tokenizer'ı yükleyin
model_name = 'nebiberke/news-sum-tr'
tokenizer = MT5Tokenizer.from_pretrained(model_name)
model = MT5ForConditionalGeneration.from_pretrained(model_name)

# Haber metni için özet oluşturma
haber_metni = "Buraya Türkçe haber metni gelecek."
input_ids = tokenizer.encode(haber_metni, return_tensors="pt", max_length=512, truncation=True)

# Özet oluşturma
summary_ids = model.generate(input_ids, max_length=150, min_length=30, length_penalty=2.0, num_beams=7, early_stopping=True)
summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True)

print("Özet:", summary)

Veri Seti

Bu model, batubayk/TR-News ve denizzhansahin/100K-TR-News adlı veri setlerinin birleştirilmesiyle oluşturulmuş veri seti üzerinde eğitilmiştir. Veri seti, Türkçe ekonomi ve güncel haber içerikleri içermekte olup, her haber metni bir özetle eşleştirilmiştir. Eğitim için kullanılan veriler, haber metinlerinden ve bu metinlerin özetlerinden oluşmaktadır.

  • Eğitim ve Test Bölünmesi: Veri seti %80 eğitim, %20 test olarak bölünmüştür.
  • Maksimum Girdi Uzunluğu: 512 token
  • Maksimum Çıktı Uzunluğu (Özet): 150 token

Eğitim Detayları

  • Model Mimarisi: MT5-base
  • Eğitim Hedefi: Seq2Seq özetleme
  • Batch Boyutu: 4
  • Epoch Sayısı: 6
  • Ağırlık Azaltma (Weight Decay): 0.01
  • Öğrenme Oranı: 5e-5
  • Değerlendirme Stratejisi: Her epoch sonunda değerlendirme yapılmıştır.
  • Logging: Her epoch sonunda loglama yapılmıştır.
  • Cihaz: CUDA destekli GPU

Eğitim ve Değerlendirme Kayıpları

Eğitim sırasında elde edilen kayıp değerleri:

  • İlk epoch sonunda eğitim kaybı: 0.6440, doğrulama kaybı: 0.5474
  • Son epoch sonunda eğitim kaybı: 0.4879, doğrulama kaybı: 0.4721

Değerlendirme Sonuçları

Modelin performansı ROUGE ve BERTScore metrikleri kullanılarak değerlendirilmiştir.

ROUGE Skorları:

  • ROUGE-1: Precision: 0.4231, Recall: 0.5000, F1-score: 0.4583
  • ROUGE-2: Precision: 0.2400, Recall: 0.2857, F1-score: 0.2609
  • ROUGE-L: Precision: 0.4231, Recall: 0.5000, F1-score: 0.4583

BERTScore:

  • Precision: 0.9031
  • Recall: 0.9196
  • F1-score: 0.9113

Sınırlamalar ve Yanlılıklar

  • Model, eğitim verisinde bulunan yanlılıkları öğrenebilir ve bu nedenle özetlerinde bu yanlılıkları yansıtabilir.
  • Özellikle çok uzun ve karmaşık haber metinlerinde özetleme kalitesinde düşüşler gözlemlenebilir.

Alıntı

Bu modeli kullanırsanız lütfen şu şekilde alıntı yapın:

@article{2024turkishsummarization,
  title={mT5 Tabanlı Türkçe Haber Özetleme Modeli},
  author={Nebi Berke İçöz},
  year={2024},
  url={https://huggingface.co/nebiberke/news-sum-tr}
}
Downloads last month
15
Safetensors
Model size
582M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for nebiberke/news-sum-tr

Base model

google/mt5-base
Finetuned
(168)
this model

Datasets used to train nebiberke/news-sum-tr