fb700 commited on
Commit
d1a0562
1 Parent(s): 13787ce

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -15,7 +15,7 @@ ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的
15
  - 首先,用40万条gpt4数据进行强化训练,以提高模型的基础能力;
16
  - 第二,使用30万条人类反馈数据,构建一个表达方式规范优雅的语言模式(RM模型);
17
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
18
- - 成果,训练后在健康咨询,文档总结能力上不但强于glm,而且部分能力上更是强于glm2,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比glm和glm2均匀显著提升。
19
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
20
  - 协议
21
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
@@ -114,7 +114,7 @@ for s in sents:
114
  ```
115
  output:
116
  ```shell
117
- 例四:超越chatglm2 的总结归纳能力
118
  问:请用简短的语言总结下面的文字:
119
  大语言模型是指能够生成、理解和处理自然语言的高度智能化的计算机模型。这些模型使用深度学习技术,尤其是循环神经网络(RNN)或变种,如长短期记忆(LSTM)或注意力机制(attention mechanism),从大规模文本语料库中进行训练。
120
  大语言模型的训练过程通常基于预测下一个单词或字符的任务。通过对大量文本数据进行训练,模型能够学习到语言的潜在模式、结构和语义含义。这使得大语言模型能够产生流畅、连贯的文本,回答问题,完成翻译任务,生成代码等。
 
15
  - 首先,用40万条gpt4数据进行强化训练,以提高模型的基础能力;
16
  - 第二,使用30万条人类反馈数据,构建一个表达方式规范优雅的语言模式(RM模型);
17
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
18
+ - 成果,训练后在健康咨询,文档总结能力上不但强于chatglm-6b,而且部分能力上更是强于chatglm2-6b,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比chatglm-6b、chatglm2-6b和百川-7b均匀显著提升。
19
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
20
  - 协议
21
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
 
114
  ```
115
  output:
116
  ```shell
117
+ 例四:优于chatglm-6b、chatglm2-6b和百川-7b等类似参数量模型的总结归纳能力
118
  问:请用简短的语言总结下面的文字:
119
  大语言模型是指能够生成、理解和处理自然语言的高度智能化的计算机模型。这些模型使用深度学习技术,尤其是循环神经网络(RNN)或变种,如长短期记忆(LSTM)或注意力机制(attention mechanism),从大规模文本语料库中进行训练。
120
  大语言模型的训练过程通常基于预测下一个单词或字符的任务。通过对大量文本数据进行训练,模型能够学习到语言的潜在模式、结构和语义含义。这使得大语言模型能够产生流畅、连贯的文本,回答问题,完成翻译任务,生成代码等。