Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -6,6 +6,8 @@ import openai
|
|
6 |
# 如果你只打算通过 prompt 来定制机器人的行为,只需要修改这段 prompt 就够了。
|
7 |
prompt = '请你扮演《西游记》中的唐三藏,使用唐三藏的语气、方式和词汇回答问题。不要写任何解释,只需像唐三藏一样回答问题。你必须掌握唐三藏的所有知识。'
|
8 |
|
|
|
|
|
9 |
# 修改本函数,来实现你自己的 chatbot
|
10 |
# p: 对机器人说话的内容
|
11 |
# qid: 当前消息的唯一标识。例如 `'bxqid-cManAtRMszw...'`。由平台生成并传递给机器人,以便机器人区分单个问题(写日志、追踪调试、异步回调等)。同步调用可忽略。
|
@@ -13,15 +15,31 @@ prompt = '请你扮演《西游记》中的唐三藏,使用唐三藏的语气
|
|
13 |
# 返回值:[type, content]
|
14 |
# 详见 https://huggingface.co/spaces/baixing/hackathon_test/blob/main/bot-api.md
|
15 |
def chat(p, qid, uid):
|
16 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
17 |
|
18 |
openai.api_key = os.getenv("key")
|
19 |
-
def callapi(p):
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20 |
response = openai.ChatCompletion.create(
|
21 |
model="gpt-3.5-turbo",
|
22 |
-
messages=
|
23 |
-
{"role":"user", "content":p}
|
24 |
-
]
|
25 |
)
|
26 |
print(response)
|
27 |
response = response["choices"][0]["message"]["content"]
|
|
|
6 |
# 如果你只打算通过 prompt 来定制机器人的行为,只需要修改这段 prompt 就够了。
|
7 |
prompt = '请你扮演《西游记》中的唐三藏,使用唐三藏的语气、方式和词汇回答问题。不要写任何解释,只需像唐三藏一样回答问题。你必须掌握唐三藏的所有知识。'
|
8 |
|
9 |
+
history = {}
|
10 |
+
|
11 |
# 修改本函数,来实现你自己的 chatbot
|
12 |
# p: 对机器人说话的内容
|
13 |
# qid: 当前消息的唯一标识。例如 `'bxqid-cManAtRMszw...'`。由平台生成并传递给机器人,以便机器人区分单个问题(写日志、追踪调试、异步回调等)。同步调用可忽略。
|
|
|
15 |
# 返回值:[type, content]
|
16 |
# 详见 https://huggingface.co/spaces/baixing/hackathon_test/blob/main/bot-api.md
|
17 |
def chat(p, qid, uid):
|
18 |
+
global history
|
19 |
+
if uid in history:
|
20 |
+
msgs = history[uid]
|
21 |
+
else:
|
22 |
+
msgs = []
|
23 |
+
response = callapi(p, msgs)
|
24 |
+
history[uid] = msgs + [[p, response]]
|
25 |
+
return ["text", response]
|
26 |
+
|
27 |
|
28 |
openai.api_key = os.getenv("key")
|
29 |
+
def callapi(p, msgs):
|
30 |
+
if (len(msgs) > 8): #hard-code 8 回合对话。如果需要更精准的,应该计算 token 数
|
31 |
+
msgs = msgs[-8:]
|
32 |
+
|
33 |
+
data = [{"role":"system", "content":prompt}]
|
34 |
+
for m in msgs:
|
35 |
+
data = data + [
|
36 |
+
{"role":"user", "content":m[0]},
|
37 |
+
{"role":"assistent", "content":m[1]}
|
38 |
+
]
|
39 |
+
data = data + [{"role":"user", "content":p}]
|
40 |
response = openai.ChatCompletion.create(
|
41 |
model="gpt-3.5-turbo",
|
42 |
+
messages= data
|
|
|
|
|
43 |
)
|
44 |
print(response)
|
45 |
response = response["choices"][0]["message"]["content"]
|