DeepSeek-7B-Chat LoRA 微调模型

这是一个基于 DeepSeek-7B-Chat 使用 LoRA 技术微调甄嬛体的模型。

模型信息

  • 基础模型: deepseek-ai/deepseek-llm-7b-chat
  • 训练方法: LoRA
  • 检查点: checkpoint-600
  • 上传时间: 2025-02-26 02:37:02

环境要求

Python 版本

  • Python 3.8 或更高版本

必需依赖

pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1

GPU 要求

  • NVIDIA GPU with CUDA support
  • 至少 16GB 显存(推理时)
  • 推荐使用 24GB 或更大显存的 GPU

使用方法

1. 安装依赖

# 安装基本依赖
pip install torch transformers peft accelerate safetensors

# 或者指定版本安装
pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1

2. 加载模型

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch

# 加载基础模型
base_model = AutoModelForCausalLM.from_pretrained(
    "deepseek-ai/deepseek-llm-7b-chat",
    trust_remote_code=True,
    torch_dtype=torch.half,
    device_map="auto"
)

# 加载 tokenizer
tokenizer = AutoTokenizer.from_pretrained(
    "deepseek-ai/deepseek-llm-7b-chat",
    use_fast=False,
    trust_remote_code=True
)

# 加载 LoRA 权重
model = PeftModel.from_pretrained(
    base_model,
    "fage13141/fage",
    torch_dtype=torch.half,
    device_map="auto"
)

# 使用示例
prompt = "你的提示词"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

3. 生成参数说明

generate 函数中,你可以调整以下参数来控制生成效果:

  • max_new_tokens: 生成的最大token数
  • temperature: 温度参数,控制随机性(0.0-1.0)
  • top_p: 控制采样的概率阈值
  • repetition_penalty: 重复惩罚参数

示例:

outputs = model.generate(
    **inputs,
    max_new_tokens=512,
    temperature=0.7,
    top_p=0.9,
    repetition_penalty=1.1
)

常见问题

  1. 显存不足

    • 尝试减小 batch_size
    • 使用 8-bit 量化: load_in_8bit=True
    • 使用 CPU 加载: device_map="cpu"
  2. 模型加载失败

    • 确保已安装所有必需依赖
    • 检查 GPU 显存是否足够
    • 确保网络连接正常

引用和致谢


Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for fage13141/fage

Adapter
(7)
this model