prsyahmi commited on
Commit
ab7db1a
·
1 Parent(s): 221a030

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +251 -0
README.md ADDED
@@ -0,0 +1,251 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: mesolitica/malaysian-mistral-7b-32k-instructions
3
+ inference: false
4
+ model_creator: mesolitica
5
+ model_name: Malaysian Mistral 7B 32k Instructions
6
+ model_type: mistral
7
+ pipeline_tag: text-generation
8
+ prompt_template: '<s>[INST] {prompt} [/INST]
9
+
10
+ '
11
+ quantized_by: prsyahmi
12
+ tags:
13
+ - finetuned
14
+ ---
15
+ <!-- markdownlint-disable MD041 -->
16
+
17
+ <!-- header start --><!-- header end -->
18
+
19
+ # Malaysian Mistral 7B 32k Instructions - GGUF
20
+ - Model creator: [mesolotica](https://huggingface.co/mesolitica)
21
+ - Original model: [Malaysian Mistral 7B 32k Instructions](https://huggingface.co/mesolitica/malaysian-mistral-7b-32k-instructions)
22
+
23
+ <!-- description start -->
24
+ ## Pengenalan
25
+ Repo ini mengandungi model berformat GGUF untuk [mesolitica's Malaysian Mistral 7B 32k Instructions](https://huggingface.co/mesolitica/malaysian-mistral-7b-32k-instructions).
26
+
27
+ GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.
28
+
29
+ <!-- description end -->
30
+
31
+ <!-- prompt-template start -->
32
+ ## Prompt template: Mistral
33
+ ```
34
+ <s>[INST] {prompt} [/INST]
35
+
36
+ ```
37
+
38
+ <!-- prompt-template end -->
39
+
40
+
41
+ <!-- README_GGUF.md-provided-files start -->
42
+ ## Fail yang diberikan
43
+ | Nama | Kaedah Quant | Saiz Fail |
44
+ | ---- | ---- | ---- |
45
+ | [malaysian-mistral-7b-32k-instructions.Q4_K_S.gguf](https://huggingface.co/prsyahmi/Mistral-7B-Instruct-v0.2-GGUF/blob/main/malaysian-mistral-7b-32k-instructions.Q4_K_S.gguf) | Q4_K_S | 3.85 GB |
46
+ | [malaysian-mistral-7b-32k-instructions.Q4_K_M.gguf](https://huggingface.co/prsyahmi/Mistral-7B-Instruct-v0.2-GGUF/blob/main/malaysian-mistral-7b-32k-instructions.Q4_K_M.gguf) | Q4_K_M | 4.06 GB |
47
+
48
+ <!-- README_GGUF.md-provided-files end -->
49
+
50
+ ## Penghargaan
51
+ Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)!
52
+
53
+ Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.
54
+
55
+ <!-- footer end -->
56
+
57
+ -------
58
+
59
+ <!-- original-model-card start -->
60
+ # Full Parameter Finetuning 7B 32768 context length Mistral on Malaysian instructions dataset
61
+
62
+ README at https://github.com/mesolitica/malaya/tree/5.1/session/mistral#instructions-7b-16384-context-length
63
+
64
+ We use exact Mistral Instruct chat template.
65
+
66
+ WandB, https://wandb.ai/mesolitica/fpf-mistral-7b-hf-instructions-16k?workspace=user-husein-mesolitica
67
+
68
+ ## how-to
69
+
70
+ ```python
71
+ from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
72
+ import torch
73
+ import json
74
+
75
+ def parse_mistral_chat(messages, function_call = None):
76
+
77
+ user_query = messages[-1]['content']
78
+
79
+ users, assistants = [], []
80
+ for q in messages[:-1]:
81
+ if q['role'] == 'user':
82
+ users.append(q['content'])
83
+ elif q['role'] == 'assistant':
84
+ assistants.append(q['content'])
85
+
86
+ texts = ['<s>']
87
+
88
+ if function_call:
89
+ fs = []
90
+ for f in function_call:
91
+ f = json.dumps(f, indent=4)
92
+ fs.append(f)
93
+ fs = '\n\n'.join(fs)
94
+ texts.append(f'\n[FUNCTIONCALL]\n{fs}\n')
95
+
96
+ for u, a in zip(users, assistants):
97
+ texts.append(f'[INST] {u.strip()} [/INST] {a.strip()}</s>')
98
+
99
+ texts.append(f'[INST] {user_query.strip()} [/INST]')
100
+ prompt = ''.join(texts).strip()
101
+ return prompt
102
+
103
+ TORCH_DTYPE = 'bfloat16'
104
+ nf4_config = BitsAndBytesConfig(
105
+ load_in_4bit=True,
106
+ bnb_4bit_quant_type='nf4',
107
+ bnb_4bit_use_double_quant=True,
108
+ bnb_4bit_compute_dtype=getattr(torch, TORCH_DTYPE)
109
+ )
110
+
111
+ tokenizer = AutoTokenizer.from_pretrained('mesolitica/malaysian-mistral-7b-32k-instructions')
112
+ model = AutoModelForCausalLM.from_pretrained(
113
+ 'mesolitica/malaysian-mistral-7b-32k-instructions',
114
+ use_flash_attention_2 = True,
115
+ quantization_config = nf4_config
116
+ )
117
+
118
+ messages = [
119
+ {'role': 'user', 'content': 'kwsp tu apa'}
120
+ ]
121
+ prompt = parse_mistral_chat(messages)
122
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
123
+ generate_kwargs = dict(
124
+ inputs,
125
+ max_new_tokens=1024,
126
+ top_p=0.95,
127
+ top_k=50,
128
+ temperature=0.9,
129
+ do_sample=True,
130
+ num_beams=1,
131
+ )
132
+ r = model.generate(**generate_kwargs)
133
+ tokenizer.decode(r[0])
134
+ ```
135
+
136
+ ```text
137
+ <s> [INST] kwsp tu apa [/INST]KWSP bermaksud Kumpulan Wang Simpanan Pekerja. Ia adalah sebuah institusi simpanan persaraan yang ditubuhkan oleh Kementerian Kewangan Malaysia untuk tujuan mengumpul simpanan ahli untuk dibayar pada umur persaraan, penuh atau penuh persaraan penuh. KWSP ditubuhkan pada tahun 1951 dan mula beroperasi pada tahun 1952. KWSP adalah salah satu institusi simpanan persaraan terbesar di dunia, dengan pangkalan ahli sekitar 14 juta ahli.</s>
138
+ ```
139
+
140
+ ```python
141
+ messages = [
142
+ {'role': 'user', 'content': 'camne nak kill pid dalam linux'}
143
+ ]
144
+ prompt = parse_mistral_chat(messages)
145
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
146
+ generate_kwargs = dict(
147
+ inputs,
148
+ max_new_tokens=1024,
149
+ top_p=0.95,
150
+ top_k=50,
151
+ temperature=0.9,
152
+ do_sample=True,
153
+ num_beams=1,
154
+ )
155
+ r = model.generate(**generate_kwargs)
156
+ print(tokenizer.decode(r[0]))
157
+ ```
158
+
159
+ ```text
160
+ <s> [INST] camne nak kill pid dalam linux [/INST]Untuk membunuh pid dalam Linux, ikuti langkah-langkah berikut:
161
+
162
+ 1. Cari pid menggunakan perintah `ps aux | grep 'pid'`. Pilih pid yang anda ingin bunuh.
163
+
164
+ 2. Gunakan perintah `kill` diikuti dengan nombor pid. Sebagai contoh, jika anda ingin membunuh pid dengan nombor 1234, gunakan perintah `kill -1234`.
165
+
166
+ 3. Sahkan pembunuhan dengan menjalankan perintah `kill -id`. Jika perintah tidak mengembalikan sebarang ralat, maka pid telah dibunuh dengan berjaya.
167
+
168
+ 4. Anda juga boleh menggunakan perintah `kill -s` untuk membunuh semua pid dengan nama atau atribut tertentu.</s>
169
+ ```
170
+
171
+ ```python
172
+ f = {
173
+ 'name': 'parse_entities',
174
+ 'description': 'extract entities from the text',
175
+ 'parameters': {
176
+ 'type': 'object',
177
+ 'properties': {
178
+ 'drink': {
179
+ 'type': 'string',
180
+ 'description': 'drink name',
181
+ },
182
+ 'event': {
183
+ 'type': 'string',
184
+ 'description': 'event name',
185
+ },
186
+ 'person_name': {
187
+ 'type': 'string',
188
+ 'description': 'person name',
189
+ }
190
+ },
191
+ 'required': [
192
+ 'drink',
193
+ 'event',
194
+ 'person_name'
195
+ ]
196
+ }
197
+ }
198
+ messages = [
199
+ {'role': 'user', 'content': 'nama saya husein bin zolkepli, saya sekarang berada di jomheboh 2023 sambil minum starbucks'}
200
+ ]
201
+ prompt = parse_mistral_chat(messages, function_call = [f])
202
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
203
+ generate_kwargs = dict(
204
+ inputs,
205
+ max_new_tokens=128,
206
+ top_p=0.95,
207
+ top_k=50,
208
+ temperature=0.9,
209
+ do_sample=True,
210
+ num_beams=1,
211
+ )
212
+ r = model.generate(**generate_kwargs)
213
+ print(tokenizer.decode(r[0]))
214
+ ```
215
+
216
+ ```text
217
+ <s>
218
+ [FUNCTIONCALL]
219
+ {
220
+ "name": "parse_entities",
221
+ "description": "extract entities from the text",
222
+ "parameters": {
223
+ "type": "object",
224
+ "properties": {
225
+ "drink": {
226
+ "type": "string",
227
+ "description": "drink name"
228
+ },
229
+ "event": {
230
+ "type": "string",
231
+ "description": "event name"
232
+ },
233
+ "person_name": {
234
+ "type": "string",
235
+ "description": "person name"
236
+ }
237
+ },
238
+ "required": [
239
+ "drink",
240
+ "event",
241
+ "person_name"
242
+ ]
243
+ }
244
+ }
245
+ [INST] nama saya husein bin zolkepli, saya sekarang berada di jomheboh 2023 sambil minum starbucks [/INST] <functioncall> {"name": "parse_entities", "arguments": '{
246
+ "drink": "Starbucks",
247
+ "event": "Jom Heboh 2023",
248
+ "person_name": "Husein Bin Zolkepli"
249
+ }'}</s>
250
+ ```
251
+ <!-- original-model-card end -->