DeepSeek-7B-Chat LoRA 微调模型
这是一个基于 DeepSeek-7B-Chat 使用 LoRA 技术微调甄嬛体的模型。
模型信息
- 基础模型: deepseek-ai/deepseek-llm-7b-chat
- 训练方法: LoRA
- 检查点: checkpoint-600
- 上传时间: 2025-02-26 02:37:02
环境要求
Python 版本
- Python 3.8 或更高版本
必需依赖
pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1
GPU 要求
- NVIDIA GPU with CUDA support
- 至少 16GB 显存(推理时)
- 推荐使用 24GB 或更大显存的 GPU
使用方法
1. 安装依赖
# 安装基本依赖
pip install torch transformers peft accelerate safetensors
# 或者指定版本安装
pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1
2. 加载模型
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch
# 加载基础模型
base_model = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/deepseek-llm-7b-chat",
trust_remote_code=True,
torch_dtype=torch.half,
device_map="auto"
)
# 加载 tokenizer
tokenizer = AutoTokenizer.from_pretrained(
"deepseek-ai/deepseek-llm-7b-chat",
use_fast=False,
trust_remote_code=True
)
# 加载 LoRA 权重
model = PeftModel.from_pretrained(
base_model,
"fage13141/fage",
torch_dtype=torch.half,
device_map="auto"
)
# 使用示例
prompt = "你的提示词"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
3. 生成参数说明
在 generate
函数中,你可以调整以下参数来控制生成效果:
- max_new_tokens: 生成的最大token数
- temperature: 温度参数,控制随机性(0.0-1.0)
- top_p: 控制采样的概率阈值
- repetition_penalty: 重复惩罚参数
示例:
outputs = model.generate(
**inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
repetition_penalty=1.1
)
常见问题
显存不足
- 尝试减小 batch_size
- 使用 8-bit 量化:
load_in_8bit=True
- 使用 CPU 加载:
device_map="cpu"
模型加载失败
- 确保已安装所有必需依赖
- 检查 GPU 显存是否足够
- 确保网络连接正常
引用和致谢
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.
Model tree for fage13141/fage
Base model
deepseek-ai/deepseek-llm-7b-chat