File size: 6,224 Bytes
ca41190
 
 
 
 
 
 
 
 
 
 
 
 
851bf47
ca41190
 
 
b5991a7
ca41190
 
 
 
2c5b776
ca41190
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
684e3f4
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
---
license: mit
datasets:
- fibonacciai/fibonacci-2025
language:
- en
- fa
- ar
base_model:
- fibonacciai/fibonacci-1-EN-8b-chat.P1_5
tags:
- text-generation-inference
- code
pipeline_tag: text-generation
---
# مدل Fibonacci-2-14b

![لوگوی مدل](https://cdn.imgurl.ir/uploads/a15036_zXwtEM.gif)
https://www.youtube.com/watch?v=ATD_LL_QB4E

https://fibonacci.monster/
## معرفی
![لوگوی مدل](https://uploadkon.ir/uploads/edbc25_25output.png)
مدل **Fibonacci-2-14b** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Phi 4 است که با 14 میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینه‌سازی شده است.

## ویژگی‌ها

- **معماری:** Phi 4
- **تعداد پارامترها:** 14 میلیارد
- **فرمت‌ها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16)
- **مجوز استفاده:** MIT

## کاربردها

- **تولید متن:** ایجاد متون خلاقانه و متنوع
- **پاسخ به سؤالات:** ارائه پاسخ‌های دقیق به پرسش‌های کاربران
- **ترجمه ماشینی:** ترجمه متون بین زبان‌های مختلف
- **تحلیل احساسات:** شناسایی احساسات موجود در متون

## نحوه استفاده

برای استفاده از این مدل، می‌توانید از کتابخانه‌های مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-14b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-14b")

input_text = "سلام! چطور می‌توانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(response)
منابع
صفحه مدل در هاگینگ فیس

مستندات هاگینگ فیس

مشارکت
ما از مشارکت‌های شما استقبال می‌کنیم! اگر پیشنهادی برای بهبود مدل دارید یا باگ‌هایی را مشاهده کرده‌اید، لطفاً از طریق Issues با ما در میان بگذارید.

مجوز
این مدل تحت مجوز MIT منتشر شده است. برای اطلاعات بیشتر، فایل LICENSE را مشاهده کنید.




# Fibonacci-2-14b Model

![Model Logo](https://huggingface.co/front/assets/huggingface_logo.svg)

## Introduction

The **Fibonacci-2-14b** is a large language model (LLM) based on the Gemma2 architecture, designed with 14 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations.

## Features

- **Architecture:** Phi 4 
- **Number of Parameters:** 14 billion
- **Formats:** GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16)
- **License:** MIT

## Applications

- **Text Generation:** Creating creative and diverse texts
- **Question Answering:** Providing accurate responses to user inquiries
- **Machine Translation:** Translating texts between different languages
- **Sentiment Analysis:** Identifying sentiments present in texts

## Usage

To use this model, you can utilize various libraries such as Hugging Face's `transformers`. Below is a sample code to load and use the model:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-14b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-14b")

input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(response)
Resources
Model Page on Hugging Face

Hugging Face Documentation

Contribution
We welcome your contributions! If you have suggestions for improving the model or have identified any bugs, please share them with us through the Issues section.

License
This model is released under the MIT License. For more information, see the LICENSE file.




# نموذج Fibonacci-2-14b

![شعار النموذج](https://huggingface.co/front/assets/huggingface_logo.svg)

## المقدمة

نموذج **Fibonacci-2-14b** هو نموذج لغة كبير (LLM) يعتمد على بنية Gemma2، تم تصميمه بـ 14 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية.

## الميزات

- **البنية:** Gemma2
- **عدد المعلمات:** 9.24 مليار
- **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16)
- **الترخيص:** MIT

## التطبيقات

- **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة
- **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين
- **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة
- **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص

## كيفية الاستخدام

لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-14b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-14b")

input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs
::contentReference[oaicite:0]{index=0}