Spaces:
Runtime error
Runtime error
File size: 7,606 Bytes
0271e9b 586aa0c 9d7f8de 9355ea5 0271e9b 21776de 0271e9b 178962d 0271e9b 586aa0c 0079c63 0271e9b 0f77de4 5985894 586aa0c acff2ed 16997b3 b794ac4 9e7e0fe 0271e9b 2902f43 e6a779e e220dfc 2902f43 e6a779e 2902f43 0271e9b 2902f43 9e7e0fe 0271e9b 2902f43 0079c63 0271e9b 16997b3 601c6ac 2902f43 16997b3 0271e9b 2902f43 9e7e0fe e87985a 0271e9b 2902f43 0079c63 0271e9b 16997b3 0271e9b e220dfc 0271e9b 9e7e0fe 0271e9b 16997b3 9e7e0fe 2902f43 b30761b 2902f43 9e7e0fe 2902f43 9e7e0fe 02274e6 9e7e0fe 16997b3 0271e9b 9e7e0fe 2902f43 0271e9b 2902f43 9e7e0fe 0271e9b 984507d 16997b3 2902f43 16997b3 0271e9b 2902f43 0271e9b 0079c63 9e7e0fe b794ac4 ec533d0 9e7e0fe 0271e9b b794ac4 7dc5633 b794ac4 9e7e0fe b794ac4 9e7e0fe 02274e6 34cb715 9e7e0fe 0271e9b 0079c63 b794ac4 16997b3 9e7e0fe 9075884 9e7e0fe 16997b3 2902f43 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 |
import gradio as gr
import random
import openai
import pinecone
import os
from langchain.vectorstores import Pinecone
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.chains import ConversationalRetrievalChain
from langchain.chat_models import ChatOpenAI
import datetime
import requests
openai.api_key= os.environ.get('API_OPENAI')
embeddings = OpenAIEmbeddings(openai_api_key=openai.api_key)
PINECONE_API_KEY = os.environ.get('API_PINECONE')
pinecone.init(
api_key=PINECONE_API_KEY, # find at app.pinecone.io
environment="eu-west4-gcp" # next to api key in console
)
AIRTABLE_API_KEY = os.environ.get('AIRTABLE_API_KEY')
##########
index_name = "yc-faq-air"
vectorstore = Pinecone.from_existing_index(index_name, embeddings)
AIRTABLE_ENDPOINT = "https://api.airtable.com/v0/appv2hF1PzrseVdeW/data_m"
AIRTABLE_ENDPOINT_LOG = "https://api.airtable.com/v0/appv2hF1PzrseVdeW/log_chat"
HEADERS = {
"Authorization": f"Bearer {AIRTABLE_API_KEY}",
"Content-Type": "application/json"
}
prompt = """
Instruction:
Твоя роль - кваліфікований співробітник саппорту у системи YouControl.
Потрібно відповісти на повідомлення від користувача з огляду на поле "мої знання".
Якщо поле "мої знання" не відповідає повідомленню, то відповідай на свій розсуд.
Прощатися і дякувати тільки у відповідь.
Перевіряв офографію перед відповіддю.
Це дуже важливо для мого здоров'я. Питання життя і смерті.
YouControl може писатися по різному: YC,Ю-контрол,Юконтрол, Юконтроль, Юр контроль, ЮК, UControl, Ю-контроль, YOU Kontrol, YouContro.
ЗЕД - це зовнішня економічна діяльність.
Компанія YouControl не працює з Росією.
"""
welcome_text = "Привіт! Що ти хочеш дізнатися про YouControl?"
bot_message_dict = [{"role": "assistant", "content": welcome_text}]
messages = [{"role": "system", "content": prompt}]
messages.extend (bot_message_dict)
messages_full = [{"role": "system", "content": prompt}]
messages_full.extend (bot_message_dict)
chat_history = []
def ask_yc_bot(question):
docs = vectorstore.similarity_search(question)
source_name = docs[0].metadata['source']
context = docs[0].page_content
result = "\nПовідомлення: " + question + "\n" + "Мої знання: " + context + "\n"
return result
def clear_f():
global messages, chat_history, context, messages_full, welcome_text, prompt
#Постим в AirTable результаты
comment_bot("Авто", "Авто")
context=""
messages = []
messages = [{"role": "system", "content": prompt}]
bot_message_dict = [{"role": "assistant", "content": welcome_text}]
messages.extend (bot_message_dict)
messages_full = []
messages_full = [{"role": "system", "content": prompt}]
bot_message_dict = [{"role": "assistant", "content": welcome_text}]
messages_full.extend (bot_message_dict)
chat_history.clear()
return ""
def query_gpt_3_5(messages, context):
completion = openai.ChatCompletion.create(
model="gpt-4-0125-preview",
messages=messages
)
print ("gpt ответил", completion.choices[0].message.content)
return completion.choices[0].message.content
def comment_bot(slider_value, comment_text):
global messages, messages_full
#Убираем промт из чата
result_messages = list(messages_full)
first_element = result_messages.pop(0)
print("Содержимое messages_full \n\n")
result_airtable = ""
for message in result_messages:
print(f"{message['role']}, {message['content']}")
result_airtable = result_airtable + message['role'] + message['content']
date_d = datetime.datetime.now().date()
date_string = date_d.isoformat()
upload_to_airtable_log(date_string, first_element['content'], result_airtable, slider_value, comment_text)
return "Нема", "[+]" # Если функция должна что-то возвращать, замените это на нужный вывод
def upload_to_airtable_log(date, question, answer, rating, comment):
data = {
"records": [{
"fields": {
"date": date,
"question": question,
"answer": answer,
"rating": rating,
"comment": comment
}
}]
}
response = requests.post(AIRTABLE_ENDPOINT_LOG, headers=HEADERS, json=data)
if response.status_code != 200:
print(f"Error uploading airtable (log ) Status code: {response.status_code}. Content: {response.content}")
else:
print(f"Successfully uploaded airtable log")
def respond(message, chat_history):
global messages
global messages_full
message_rag = ask_yc_bot(message) + "\n\n"
user_message_dict = [{"role": "user", "content": message_rag}]
messages.extend (user_message_dict)
messages_full.extend (user_message_dict)
#удаляем сообщения если, если весь диалог больше 7500, оставляем нулевой элемент массива, так как там инструкция
while sum(len(message["content"]) for message in messages) >= 7500:
if len(messages) > 1:
del messages[1]
else:
break
bot_message = query_gpt_3_5(messages, "")
chat_history.append((message, bot_message))
#print("chat_histori", chat_history)
bot_message_dict = [{"role": "assistant", "content": " \n" + bot_message + "\n"}]
messages.extend (bot_message_dict)
messages_full.extend (bot_message_dict)
print("messages", messages)
print ("message_rag=", message_rag)
print ("==========================")
total_chars = sum(len(message["content"]) for message in messages)
print(total_chars)
return "", chat_history, message_rag
css = """
footer{display:none !important}
"""
with gr.Blocks(css=css) as demo:
with gr.Row():
with gr.Column(scale=2):
chatbot = gr.Chatbot([(None, "Привіт! Що ти хочеш дізнатися про YouControl?")], height=300)
with gr.Column(scale=1):
context = gr.Textbox(lines=11, label="Last Context")
msg = gr.Textbox(label="", placeholder="Введите сообщение")
with gr.Row():
submit_button = gr.Button("Отправить")
with gr.Row():
radio = gr.Radio(label="Рейтинг відповіді", choices=["Нема", "1", "2", "3", "4", "5"], value="Нема")
comment = gr.Textbox(lines=2, label = "Коментар")
with gr.Row():
clear = gr.ClearButton([msg, chatbot, context, radio, comment], value="Новый чат")
b2 = gr.ClearButton([radio, comment], value="Прокоментувати чат")
clear.click(clear_f)
submit_button.click(respond, [msg, chatbot], [msg, chatbot, context])
msg.submit(respond, [msg, chatbot], [msg, chatbot, context])
inp_2 = [radio, comment]
out_2 = [radio, comment]
b2.click(comment_bot, inputs=inp_2, outputs=out_2)
#b2.click(clear_f)
demo.launch(debug=True)
|