TG_FGOT_Qwen2.5_3B 💬

Only russian-language fine-tuned model on base Qwen2.5-3B-Instruct!

Это только русскоязычная модель, дотренированная на базе Qwen2.5-3B-Instruct!

Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT).

  • Длина Контекста: 4,096.
  • Датасет: 154 телеграм постов.
  • Пример запроса: "Напиши пост про черепашек".
  • Системный промпт: Отсутствует.

Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.

Downloads last month
15
GGUF
Model size
3.09B params
Architecture
qwen2
Hardware compatibility
Log In to view the estimation

2-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for FGOTYT/TG_FGOT_Qwen2.5_3B

Base model

Qwen/Qwen2.5-3B
Quantized
(128)
this model

Dataset used to train FGOTYT/TG_FGOT_Qwen2.5_3B

Collection including FGOTYT/TG_FGOT_Qwen2.5_3B