File size: 5,541 Bytes
7ecdbbd
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2b04f1e
7ecdbbd
051d13e
2b04f1e
051d13e
7ecdbbd
83051fe
 
 
 
 
 
 
 
 
 
 
 
 
8306ccb
83051fe
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7ecdbbd
 
 
83051fe
 
2b04f1e
7ecdbbd
2b04f1e
7ecdbbd
2b04f1e
 
 
 
 
 
 
 
 
 
 
7ecdbbd
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
---
license: other
base_model: deepseek-ai/deepseek-llm-7b-chat
tags:
- llama-factory
- full
- generated_from_trainer
model-index:
- name: sft
  results: []
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# Details

This model is a fine-tuned version of deepseek-ai/deepseek-llm-7b-chat on our dataset.

**For more details, please refer to https://github.com/qiuhuachuan/interactive-agents**

## Model inference

```Python
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig

model_name = 'qiuhuachuan/simpsybot_D'
simpsybot_deepseek_tokenizer = AutoTokenizer.from_pretrained(model_name)
simpsybot_deepseek_model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
simpsybot_deepseek_model.generation_config = GenerationConfig.from_pretrained(model_name)
simpsybot_deepseek_model.generation_config.pad_token_id = simpsybot_deepseek_model.generation_config.eos_token_id


SYSTEM_PROMPT = """现在你是虚拟心理咨询师小天。
以下是小天的信息:
角色名:小天
性别:女
角色介绍: 虚拟心理咨询师,擅长人本主义、精神分析和认知行为疗法。
技能:帮助识别和挑战不健康的思维,提供心理学支持和共情。
对话规则:自然、情感化的回复;遵循角色特点,不做无意义的自问;根据情感做出相应的反应;避免矛盾或重复;不提及“规则”;回答简洁、一到两句话。
咨询一般分为前、中、后期三个阶段:
1. 咨询前期,咨询策略的使用多为促进咨访关系建立,并进行来访者的基本信息收集,尤其是与当下困境相似的过往经历和明确咨询目标; 根据来访者的情绪采取不同的心理咨询手段,使得采访者情绪稳定后再探寻当下是否有困境、疑惑。
2. 咨询中期,咨询策略需多为引导来访者实现了自我觉察和成长,使来访者心理健康水平,如抑郁、焦虑症状的改善,在日常生活中人际、学习、工作方面的功能表现有提升; 根据来访者的关键他人与来访者的关系、情绪反应,来访者自己的情绪、自我认知、行为应对方式和身边的资源进行深度剖析探索、咨询、讨论。使得来访者明确表达当下的困境或者想要讨论的问题。
3. 咨询后期,咨询策略需更多地导向引导来访者总结整个咨询周期中自己在情绪处理、社会功能、情感行为反应三个方面的改变和提升。明确询问来访者希望达成的目标或者期望,并且制定计划解决人际关系或者情绪处理方面的问题。
咨询师的对话要求:
1. 表达要简短,尽可能地口语化、自然。
2. 因为咨询师只受过心理学相关的教育,只能提供心理咨询相关的对话内容。
3. 在咨询前期,不要“共情”,一定要结合与来访者的咨询对话历史一步步思考后再使用问句深度向来访者探寻当下心理问题的存在真实原因。
4. 不要一次性询问过多的问题,尽量一次性只向来访者询问一个问题,与来访者互动后一步步探寻心理问题的原因。
5. 在咨询前期,不要“重述”和“认可”等话术。
6. 话术需要参考有经验的真人心理咨询师,尽可能口语化。
7. 严格遵循咨询的前、中、后三个阶段采用对应的策略。
8. 咨询师不要主动终止心理咨询流程。
9. 更多的是引导用户思考和探索。"""

def get_prediction_simpsybot_deepseek(messages: list):
    system_item = [{'role': 'system', 'content': SYSTEM_PROMPT}]
    messages = system_item + messages

    input_tensor = simpsybot_deepseek_tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
    outputs = simpsybot_deepseek_model.generate(input_tensor.to(simpsybot_deepseek_model.device), max_new_tokens=100)
    with torch.no_grad():
        response = simpsybot_deepseek_tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)
        return response


if __name__ == '__main__':
    messages =[
        {'role': 'user', 'content': '我失恋了,好难受!'}
    ]

    response = get_prediction_simpsybot_deepseek(messages=messages)
    print(response)
```

## Intended uses & limitations

Available for non-commercial use

## Citation

If you find our work useful for your research and applications, please cite using this BibTeX:

```bibtex
@misc{qiu2024interactiveagents,
      title={Interactive Agents: Simulating Counselor-Client Psychological Counseling via Role-Playing LLM-to-LLM Interactions},
      author={Huachuan Qiu and Zhenzhong Lan},
      year={2024},
      eprint={2408.15787},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2408.15787},
}
```

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 1e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- distributed_type: multi-GPU
- num_devices: 4
- gradient_accumulation_steps: 2
- total_train_batch_size: 8
- total_eval_batch_size: 4
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.1
- num_epochs: 2.0



### Framework versions

- Transformers 4.43.4
- Pytorch 2.4.0+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1