dusensen commited on
Commit
2fdf979
·
verified ·
1 Parent(s): f1e4fd0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +307 -23
README.md CHANGED
@@ -1,34 +1,318 @@
1
- ---
2
- tags:
3
- - text-to-image
4
- - stable-diffusion
5
- - lora
6
- - diffusers
7
- - template:sd-lora
8
-
9
- base_model: hfl/llama-3-chinese-8b-instruct-v2
10
- instance_prompt: null
11
- license: apache-2.0
12
- ---
13
- # llama-3-8B-Instruct-text2sql-lora
14
 
15
- <Gallery />
16
-
17
- ## Model description
18
-
19
- 基于llama-3-chinese-8b-instruct-v2进行的lora微调
20
 
21
- - 本项目微调用到的数据集
 
 
 
22
  - [Spider](https://yale-lily.github.io/spider): 一个跨域的复杂text2sql数据集,包含了10,181条自然语言问句、分布在200个独立数据库中的5,693条SQL,内容覆盖了138个不同的领域。
23
- - [CHASE](https://xjtu-intsoft.github.io/chase/): 一个跨领域多轮交互text2sql中文数据集,包含5459个多轮问题组成的列表,一共17940个<query, SQL>二元组,涉及280个不同领域的数据库。
24
  - [BIRD-SQL:](https://bird-bench.github.io/)数据集是一个英文的大规模跨领域文本到SQL基准测试,特别关注大型数据库内容。该数据集包含12,751对文本到SQL数据对和95个数据库,总大小为33.4GB,跨越37个职业领域。BIRD-SQL数据集通过探索三个额外的挑战,即处理大规模和混乱的数据库值、外部知识推理和优化SQL执行效率,缩小了文本到SQL研究与实际应用之间的差距。
25
  - [CSpider:](https://drive.google.com/drive/folders/1TxCUq1ydPuBdDdHF3MkHT-8zixluQuLa?usp=sharing)2019年9月,西湖大学提出了一个大型中文数据集CSpider,用于复杂和跨领域的语义解析和Text-to-SQL任务,由2位NLP研究人员和1位计算机专业学生从数据集Spider翻译而来,其中包含200个数据库上的10181个问题和5693个独特的复杂SQL查询,具有涵盖138个不同领域的多个表的数据库。
26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
27
 
 
 
 
28
 
29
 
30
- ## Download model
 
 
 
31
 
32
- Weights for this model are available in Safetensors format.
 
33
 
34
- [Download](/dusensen/llama-3-8B-Instruct-text2sql-lora/tree/main) them in the Files & versions tab.
 
1
+ # 项目名称:llama-3-8B-Instruct-text2sql
 
 
 
 
 
 
 
 
 
 
 
 
2
 
3
+ ## 项目简介
4
+ 模型介绍
5
+ 该版本是 基于 Llama-3-Chinese-8B-Instruct-v2 进行的微调
6
+ 项目地址:(https://github.com/dusens/llama-3-8B-Instruct-text2sql)
 
7
 
8
+ ## 训练数据
9
+ 本项目初期使用的训练数据集为 **CSPIDER 中文数据集 Spider数据集 BIRD-SQL 数据集**,该数据集包含多种数据库环境下的中文到SQL的查询转换样本。
10
+ 我们计划在后续阶段引入更多样的中文文本到SQL的样本,以增强模型的泛化能力和准确性。
11
+
12
  - [Spider](https://yale-lily.github.io/spider): 一个跨域的复杂text2sql数据集,包含了10,181条自然语言问句、分布在200个独立数据库中的5,693条SQL,内容覆盖了138个不同的领域。
 
13
  - [BIRD-SQL:](https://bird-bench.github.io/)数据集是一个英文的大规模跨领域文本到SQL基准测试,特别关注大型数据库内容。该数据集包含12,751对文本到SQL数据对和95个数据库,总大小为33.4GB,跨越37个职业领域。BIRD-SQL数据集通过探索三个额外的挑战,即处理大规模和混乱的数据库值、外部知识推理和优化SQL执行效率,缩小了文本到SQL研究与实际应用之间的差距。
14
  - [CSpider:](https://drive.google.com/drive/folders/1TxCUq1ydPuBdDdHF3MkHT-8zixluQuLa?usp=sharing)2019年9月,西湖大学提出了一个大型中文数据集CSpider,用于复杂和跨领域的语义解析和Text-to-SQL任务,由2位NLP研究人员和1位计算机专业学生从数据集Spider翻译而来,其中包含200个数据库上的10181个问题和5693个独特的复杂SQL查询,具有涵盖138个不同领域的多个表的数据库。
15
 
16
+ ## 模型架构
17
+ 微调模型采用的是 `Llama-3-Chinese-8B-Instruct-v2` 版本,
18
+
19
+ ## 功能和特点
20
+ - **自然语言理解**:能够准确理解中文自然语言输入。
21
+ - **SQL生成**:基于理解的内容生成符合逻辑的SQL查询语句。
22
+
23
+ <Gallery />
24
+
25
+
26
+
27
+ ## 模型指标
28
+ - 更新日期: 2024/05/11
29
+ - 评价指标: execution accuracy (ex)
30
+
31
+ <table style="text-align: center;">
32
+ <tr>
33
+ <th style="text-align: center;">Model</th>
34
+ <th>Method</th>
35
+ <th>Easy</th>
36
+ <th>Medium</th>
37
+ <th>Hard</th>
38
+ <th>Extra</th>
39
+ <th>All</th>
40
+ </tr>
41
+ <tr>
42
+ <td>llama-3-8B-Instruct-text2sql</td>
43
+ <td>lora</td>
44
+ <td>0.938</td>
45
+ <td>0.782</td>
46
+ <td>0.581</td>
47
+ <td>0.524</td>
48
+ <td>0.768</td>
49
+ </tr>
50
+ <tr>
51
+ <td></td>
52
+ <td>qlora</td>
53
+ <td>0</td>
54
+ <td>0</td>
55
+ <td>0</td>
56
+ <td>0</td>
57
+ <td>0</td>
58
+ </tr>
59
+ <tr>
60
+ <td></td>
61
+ <td>base</td>
62
+ <td>0.297</td>
63
+ <td>0.245</td>
64
+ <td>0.151</td>
65
+ <td>0.095</td>
66
+ <td>0.230</td>
67
+ </tr>
68
+ <tr>
69
+ <td>Llama2-7B-Chat</td>
70
+ <td>lora</td>
71
+ <td>0.887</td>
72
+ <td>0.641</td>
73
+ <td>0.489</td>
74
+ <td>0.331</td>
75
+ <td>0.626</td>
76
+ </tr>
77
+ <tr>
78
+ <td></td>
79
+ <td>qlora</td>
80
+ <td>0.847</td>
81
+ <td>0.623</td>
82
+ <td>0.466</td>
83
+ <td>0.361</td>
84
+ <td>0.608</td>
85
+ </tr>
86
+ <tr>
87
+ <td></td>
88
+ <td>base</td>
89
+ <td>0</td>
90
+ <td>0</td>
91
+ <td>0</td>
92
+ <td>0</td>
93
+ <td>0</td>
94
+ </tr>
95
+ <tr>
96
+ <td>Llama2-13B-Chat</td>
97
+ <td>lora</td>
98
+ <td>0.907</td>
99
+ <td>0.729</td>
100
+ <td>0.552</td>
101
+ <td>0.343</td>
102
+ <td>0.68</td>
103
+ </tr>
104
+ <tr>
105
+ <td></td>
106
+ <td>qlora</td>
107
+ <td>0.911</td>
108
+ <td>0.7</td>
109
+ <td>0.552</td>
110
+ <td>0.319</td>
111
+ <td>0.664</td>
112
+ </tr>
113
+ <tr>
114
+ <td></td>
115
+ <td>base</td>
116
+ <td>0.214</td>
117
+ <td>0.177</td>
118
+ <td>0.092</td>
119
+ <td>0.036</td>
120
+ <td>0.149</td>
121
+ </tr>
122
+ <tr>
123
+ <td>CodeLlama-7B-Instruct</td>
124
+ <td>lora</td>
125
+ <td>0.923</td>
126
+ <td>0.756</td>
127
+ <td>0.586</td>
128
+ <td>0.349</td>
129
+ <td>0.702</td>
130
+ </tr>
131
+ <tr>
132
+ <td></td>
133
+ <td>qlora</td>
134
+ <td>0.911</td>
135
+ <td>0.751</td>
136
+ <td>0.598</td>
137
+ <td>0.331</td>
138
+ <td>0.696</td>
139
+ </tr>
140
+ <tr>
141
+ <td></td>
142
+ <td>base</td>
143
+ <td>0.698</td>
144
+ <td>0.601</td>
145
+ <td>0.408</td>
146
+ <td>0.271</td>
147
+ <td>0.539</td>
148
+ </tr>
149
+ <tr>
150
+ <td>CodeLlama-13B-Instruct</td>
151
+ <td>lora</td>
152
+ <td>0.94</td>
153
+ <td>0.789</td>
154
+ <td>0.684</td>
155
+ <td>0.404</td>
156
+ <td>0.746</td>
157
+ </tr>
158
+ <tr>
159
+ <td></td>
160
+ <td>qlora</td>
161
+ <td>0.94</td>
162
+ <td>0.774</td>
163
+ <td>0.626</td>
164
+ <td>0.392</td>
165
+ <td>0.727</td>
166
+ </tr>
167
+ <tr>
168
+ <td></td>
169
+ <td>base</td>
170
+ <td>0.577</td>
171
+ <td>0.352</td>
172
+ <td>0.201</td>
173
+ <td>0.066</td>
174
+ <td>0.335</td>
175
+ </tr>
176
+ <tr>
177
+ <td>Baichuan2-7B-Chat</td>
178
+ <td>lora</td>
179
+ <td>0.871</td>
180
+ <td>0.63</td>
181
+ <td>0.448</td>
182
+ <td>0.295</td>
183
+ <td>0.603</td>
184
+ </tr>
185
+ <tr>
186
+ <td></td>
187
+ <td>qlora</td>
188
+ <td>0.891</td>
189
+ <td>0.637</td>
190
+ <td>0.489</td>
191
+ <td>0.331</td>
192
+ <td>0.624</td>
193
+ </tr>
194
+ <tr>
195
+ <td></td>
196
+ <td>base</td>
197
+ <td>0.581</td>
198
+ <td>0.413</td>
199
+ <td>0.264</td>
200
+ <td>0.187</td>
201
+ <td>0.392</td>
202
+ </tr>
203
+ <tr>
204
+ <td>Baichuan2-13B-Chat</td>
205
+ <td>lora</td>
206
+ <td>0.903</td>
207
+ <td>0.702</td>
208
+ <td>0.569</td>
209
+ <td>0.392</td>
210
+ <td>0.678</td>
211
+ </tr>
212
+ <tr>
213
+ <td></td>
214
+ <td>qlora</td>
215
+ <td>0.895</td>
216
+ <td>0.675</td>
217
+ <td>0.58</td>
218
+ <td>0.343</td>
219
+ <td>0.659</td>
220
+ </tr>
221
+ <tr>
222
+ <td></td>
223
+ <td>base</td>
224
+ <td>0.395</td>
225
+ <td>0.256</td>
226
+ <td>0.138</td>
227
+ <td>0.042</td>
228
+ <td>0.235</td>
229
+ </tr>
230
+ <tr>
231
+ <td>Qwen-7B-Chat</td>
232
+ <td>lora</td>
233
+ <td>0.855</td>
234
+ <td>0.688</td>
235
+ <td>0.575</td>
236
+ <td>0.331</td>
237
+ <td>0.652</td>
238
+ </tr>
239
+ <tr>
240
+ <td></td>
241
+ <td>qlora</td>
242
+ <td>0.911</td>
243
+ <td>0.675</td>
244
+ <td>0.575</td>
245
+ <td>0.343</td>
246
+ <td>0.662</td>
247
+ </tr>
248
+ <tr>
249
+ <td></td>
250
+ <td>base</td>
251
+ <td>0.871</td>
252
+ <td>0.632</td>
253
+ <td>0.368</td>
254
+ <td>0.181</td>
255
+ <td>0.573</td>
256
+ </tr>
257
+ <tr>
258
+ <td>Qwen-14B-Chat</td>
259
+ <td>lora</td>
260
+ <td>0.895</td>
261
+ <td>0.702</td>
262
+ <td>0.552</td>
263
+ <td>0.331</td>
264
+ <td>0.663</td>
265
+ </tr>
266
+ <tr>
267
+ <td></td>
268
+ <td>qlora</td>
269
+ <td>0.919</td>
270
+ <td>0.744</td>
271
+ <td>0.598</td>
272
+ <td>0.367</td>
273
+ <td>0.701</td>
274
+ </tr>
275
+ <tr>
276
+ <td></td>
277
+ <td>base</td>
278
+ <td>0</td>
279
+ <td>0</td>
280
+ <td>0</td>
281
+ <td>0</td>
282
+ <td>0</td>
283
+ </tr>
284
+ <tr>
285
+ <td>ChatGLM3-6b</td>
286
+ <td>lora</td>
287
+ <td>0.855</td>
288
+ <td>0.605</td>
289
+ <td>0.477</td>
290
+ <td>0.271</td>
291
+ <td>0.59</td>
292
+ </tr>
293
+ <tr>
294
+ <td></td>
295
+ <td>qlora</td>
296
+ <td>0.843</td>
297
+ <td>0.603</td>
298
+ <td>0.506</td>
299
+ <td>0.211</td>
300
+ <td>0.581</td>
301
+ </tr>
302
+ </table>
303
+
304
+ ## 下载地址
305
 
306
+ | 模型名称 | 完整版 | LoRA版 | GGUF版 |
307
+ | :------------------------ | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------------: |
308
+ | **llama-3-8B-Instruct-text2sql**<br/>(指令模型) | [[🤗Hugging Face]]()<br/> [[🤖ModelScope]](https://www.modelscope.cn/models/senjia/llama-3-8B-Instruct-text2sql/summary)<br/>[[wisemodel]]() | [[🤗Hugging Face]]()<br/> [[🤖ModelScope]](https://www.modelscope.cn/models/senjia/llama-3-8B-Instruct-text2sql-lora/summary)<br/>[[wisemodel]]() | |
309
 
310
 
311
+ ## 贡献者
312
+ sensen
313
+ ## 许可证
314
+ 本项目采用 MIT 许可证。详细许可信息可以在项目仓库的LICENSE文件中找到。
315
 
316
+ ## 如何参与
317
+ 欢迎对中文处理和SQL生成感兴趣的开发者加入我们的项目。你可以通过 GitHub Issue 或 Pull Request 的方式参与项目贡献。
318