File size: 2,118 Bytes
669bdea 8e0dafd 669bdea 9e7a60d 669bdea |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 |
---
license: apache-2.0
datasets:
- BelleGroup/train_1M_CN
language:
- zh
library_name: transformers
---
## 介绍
1. 模型名称:`xiaoheizi`(`小黑子`),现在国内的大模型起的名字一个比一个厉害,那我们和别人做点不一样的,主打一个随意~
2. 模型参数量:是一个参数量为`3B`的模型
3. 模型:模型基于[`dolly_v2_3b`](https://huggingface.co/databricks/dolly-v2-3b)模型,而`dolly_v2_3b`模型本质上就是[`gpt_neox`](https://huggingface.co/models?other=gpt_neox)模型
4. 数据:基于[`BelleGroup/train_1M_CN`](https://huggingface.co/datasets/BelleGroup/train_1M_CN)数据做的训练
5. 商用:可以商用
6. GitHub仓库:本项目的训练和推理代码已经全部开源[https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b](https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b)
## 使用方法
### 推理
#### step1
```bash
git clone [email protected]:yuanzhoulvpi2017/zero_nlp.git
cd chinese_dolly_v2_3b
```
#### step2
```python
from transformers import GPTNeoXForCausalLM,AutoTokenizer
from dolly.generate import generate_response,load_model_tokenizer_for_generate
import torch
model, tokenizer = load_model_tokenizer_for_generate(pretrained_model_name_or_path="yuanzhoulvpi/xiaoheizi-3b")
for i in range(10):
print("*" * 100)
res = generate_response(instruction="列出三个在二十世纪被认为是最伟大的小说之一的书名,以及它们的作者。", model=model,tokenizer=tokenizer)
print(res)
torch.cuda.empty_cache()
# ****************************************************************************************************
# - 《致命招若众》 by 黄伟作为一部历史传说学者的作品,创作于 1898 年。
# - 《讲故事人生》 by 苏珊作为一部历史传说,近年的迈克尔·道尔莎尼的重装作品,创作于1999年。
# - 《金头银头》 by 洛克菲尔德·迪伊纳作为一部小说、小说之旅、花园小说家之一,创作于1958年。
```
### 训练
1. 使用`trainer_dolly.py`文件训练即可 |