Pinyin2Hanzi_Transformer
基于Transformer
的预训练汉语拼音序列转汉字序列模型,训练数据全部采用Duyu/Pinyin-Hanzi
(单击此处 跳转至数据集页面)
📖 模型概览
模型相关参数 | 数值 |
---|---|
参数量 | 62,200,184 (62M) |
可学习参数量比例 | 100% |
Transformer编码器层数 | 8 |
Transformer解码器层数 | 6 |
词嵌入维度 | 512 |
多头注意力层注意力头数 | 16 |
Transformer前馈层维度 | 1024 |
截断长度 | 14 |
🚀 快速启动
硬件要求
模型推理: 轻量级模型,常见的家用计算机配置(8GB
内存及以上)即可运行,若有NVIDIA GPU(使用CUDA
)可加速。
模型训练: 可在CPU
设备上运行(8GB
内存及以上),但训练速度非常慢,建议使用NVIDIA GeForce RTX 2080
及以上配置的加速卡GPU。
使用方法
(一)环境准备:
- 硬件要求:如上所述
- 依赖安装:使用的第三方库包括
numpy
、pandas
、torch
pip install numpy pandas
# 请查看PyTorch官方文档,以进行torch的安装。
- 下载代码(
run.py
)及预训练权重(pinyin2hanzi_transformer.pth
)
(二)模型推理:
- 解除主函数中
use_main()
的注释,增加train_main()
的注释。 - 修改
use_main()
中的模型文件路径及汉语拼音序列。 - 运行代码,实现预测。
(三)模型训练:
- 准备好适当的训练环境(带加速显卡的机器)
- 准备数据集
- 文件格式:
CSV
文件。 - 第一列是汉字序列。
- 第二列是拼音序列,每个汉字对应的拼音用一个空格隔开。
- 解除主函数中
train_main()
的注释,增加use_main()
的注释。 - 根据情况,修改
train_main()
中的各项参数。 - 运行代码,开始训练。
🎓 项目作者
DuYu (Chinese Simplified: 杜宇, No.202103180009, [email protected]), Faculty of Computer Science and Technology, Qilu University of Technology (Shandong Academy of Sciences).
📊 访客统计
项目在GitHub平台同步开源:https://github.com/duyu09/Pinyin2Hanzi-Transformer
Number of Total Visits (All of Duyu09's GitHub Projects):

Number of Total Visits (Pinyin2Hanzi-Transformer):

Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no library tag.