mav23 commited on
Commit
1eaeb24
·
verified ·
1 Parent(s): 269e9a9

Upload folder using huggingface_hub

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ malaysian-mistral-7b-32k-instructions.Q4_0.gguf filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,196 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - ms
4
+ ---
5
+
6
+ # Full Parameter Finetuning 7B 32768 context length Mistral on Malaysian instructions dataset
7
+
8
+ README at https://github.com/mesolitica/malaya/tree/5.1/session/mistral#instructions-7b-16384-context-length
9
+
10
+ We use exact Mistral Instruct chat template.
11
+
12
+ WandB, https://wandb.ai/mesolitica/fpf-mistral-7b-hf-instructions-16k?workspace=user-husein-mesolitica
13
+
14
+ ## how-to
15
+
16
+ ```python
17
+ from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
18
+ import torch
19
+ import json
20
+
21
+ def parse_mistral_chat(messages, function_call = None):
22
+
23
+ user_query = messages[-1]['content']
24
+
25
+ users, assistants = [], []
26
+ for q in messages[:-1]:
27
+ if q['role'] == 'user':
28
+ users.append(q['content'])
29
+ elif q['role'] == 'assistant':
30
+ assistants.append(q['content'])
31
+
32
+ texts = ['<s>']
33
+
34
+ if function_call:
35
+ fs = []
36
+ for f in function_call:
37
+ f = json.dumps(f, indent=4)
38
+ fs.append(f)
39
+ fs = '\n\n'.join(fs)
40
+ texts.append(f'\n[FUNCTIONCALL]\n{fs}\n')
41
+
42
+ for u, a in zip(users, assistants):
43
+ texts.append(f'[INST] {u.strip()} [/INST] {a.strip()}</s>')
44
+
45
+ texts.append(f'[INST] {user_query.strip()} [/INST]')
46
+ prompt = ''.join(texts).strip()
47
+ return prompt
48
+
49
+ TORCH_DTYPE = 'bfloat16'
50
+ nf4_config = BitsAndBytesConfig(
51
+ load_in_4bit=True,
52
+ bnb_4bit_quant_type='nf4',
53
+ bnb_4bit_use_double_quant=True,
54
+ bnb_4bit_compute_dtype=getattr(torch, TORCH_DTYPE)
55
+ )
56
+
57
+ tokenizer = AutoTokenizer.from_pretrained('mesolitica/malaysian-mistral-7b-32k-instructions')
58
+ model = AutoModelForCausalLM.from_pretrained(
59
+ 'mesolitica/malaysian-mistral-7b-32k-instructions',
60
+ use_flash_attention_2 = True,
61
+ quantization_config = nf4_config
62
+ )
63
+
64
+ messages = [
65
+ {'role': 'user', 'content': 'kwsp tu apa'}
66
+ ]
67
+ prompt = parse_mistral_chat(messages)
68
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
69
+ generate_kwargs = dict(
70
+ inputs,
71
+ max_new_tokens=1024,
72
+ top_p=0.95,
73
+ top_k=50,
74
+ temperature=0.9,
75
+ do_sample=True,
76
+ num_beams=1,
77
+ )
78
+ r = model.generate(**generate_kwargs)
79
+ tokenizer.decode(r[0])
80
+ ```
81
+
82
+ ```text
83
+ <s> [INST] kwsp tu apa [/INST]KWSP bermaksud Kumpulan Wang Simpanan Pekerja. Ia adalah sebuah institusi simpanan persaraan yang ditubuhkan oleh Kementerian Kewangan Malaysia untuk tujuan mengumpul simpanan ahli untuk dibayar pada umur persaraan, penuh atau penuh persaraan penuh. KWSP ditubuhkan pada tahun 1951 dan mula beroperasi pada tahun 1952. KWSP adalah salah satu institusi simpanan persaraan terbesar di dunia, dengan pangkalan ahli sekitar 14 juta ahli.</s>
84
+ ```
85
+
86
+ ```python
87
+ messages = [
88
+ {'role': 'user', 'content': 'camne nak kill pid dalam linux'}
89
+ ]
90
+ prompt = parse_mistral_chat(messages)
91
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
92
+ generate_kwargs = dict(
93
+ inputs,
94
+ max_new_tokens=1024,
95
+ top_p=0.95,
96
+ top_k=50,
97
+ temperature=0.9,
98
+ do_sample=True,
99
+ num_beams=1,
100
+ )
101
+ r = model.generate(**generate_kwargs)
102
+ print(tokenizer.decode(r[0]))
103
+ ```
104
+
105
+ ```text
106
+ <s> [INST] camne nak kill pid dalam linux [/INST]Untuk membunuh pid dalam Linux, ikuti langkah-langkah berikut:
107
+
108
+ 1. Cari pid menggunakan perintah `ps aux | grep 'pid'`. Pilih pid yang anda ingin bunuh.
109
+
110
+ 2. Gunakan perintah `kill` diikuti dengan nombor pid. Sebagai contoh, jika anda ingin membunuh pid dengan nombor 1234, gunakan perintah `kill -1234`.
111
+
112
+ 3. Sahkan pembunuhan dengan menjalankan perintah `kill -id`. Jika perintah tidak mengembalikan sebarang ralat, maka pid telah dibunuh dengan berjaya.
113
+
114
+ 4. Anda juga boleh menggunakan perintah `kill -s` untuk membunuh semua pid dengan nama atau atribut tertentu.</s>
115
+ ```
116
+
117
+ ```python
118
+ f = {
119
+ 'name': 'parse_entities',
120
+ 'description': 'extract entities from the text',
121
+ 'parameters': {
122
+ 'type': 'object',
123
+ 'properties': {
124
+ 'drink': {
125
+ 'type': 'string',
126
+ 'description': 'drink name',
127
+ },
128
+ 'event': {
129
+ 'type': 'string',
130
+ 'description': 'event name',
131
+ },
132
+ 'person_name': {
133
+ 'type': 'string',
134
+ 'description': 'person name',
135
+ }
136
+ },
137
+ 'required': [
138
+ 'drink',
139
+ 'event',
140
+ 'person_name'
141
+ ]
142
+ }
143
+ }
144
+ messages = [
145
+ {'role': 'user', 'content': 'nama saya husein bin zolkepli, saya sekarang berada di jomheboh 2023 sambil minum starbucks'}
146
+ ]
147
+ prompt = parse_mistral_chat(messages, function_call = [f])
148
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
149
+ generate_kwargs = dict(
150
+ inputs,
151
+ max_new_tokens=128,
152
+ top_p=0.95,
153
+ top_k=50,
154
+ temperature=0.9,
155
+ do_sample=True,
156
+ num_beams=1,
157
+ )
158
+ r = model.generate(**generate_kwargs)
159
+ print(tokenizer.decode(r[0]))
160
+ ```
161
+
162
+ ```text
163
+ <s>
164
+ [FUNCTIONCALL]
165
+ {
166
+ "name": "parse_entities",
167
+ "description": "extract entities from the text",
168
+ "parameters": {
169
+ "type": "object",
170
+ "properties": {
171
+ "drink": {
172
+ "type": "string",
173
+ "description": "drink name"
174
+ },
175
+ "event": {
176
+ "type": "string",
177
+ "description": "event name"
178
+ },
179
+ "person_name": {
180
+ "type": "string",
181
+ "description": "person name"
182
+ }
183
+ },
184
+ "required": [
185
+ "drink",
186
+ "event",
187
+ "person_name"
188
+ ]
189
+ }
190
+ }
191
+ [INST] nama saya husein bin zolkepli, saya sekarang berada di jomheboh 2023 sambil minum starbucks [/INST] <functioncall> {"name": "parse_entities", "arguments": '{
192
+ "drink": "Starbucks",
193
+ "event": "Jom Heboh 2023",
194
+ "person_name": "Husein Bin Zolkepli"
195
+ }'}</s>
196
+ ```
malaysian-mistral-7b-32k-instructions.Q4_0.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:80898cdac9ae73cd48b267ca829cf0015ac85ae144cf4349fb45c17618cd3497
3
+ size 4108916768