Update app.py
Browse files
app.py
CHANGED
@@ -258,9 +258,9 @@ def invoke (prompt, history, openai_api_key, rag_option, temperature=0.9, max_ne
|
|
258 |
#LLM auswählen (OpenAI oder HF)
|
259 |
###########################
|
260 |
#Anfrage an OpenAI
|
261 |
-
|
262 |
#oder an Hugging Face
|
263 |
-
llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 64})
|
264 |
|
265 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
266 |
if (rag_option == "Chroma"):
|
@@ -327,7 +327,7 @@ chat_interface_stream = gr.ChatInterface(fn=invoke,
|
|
327 |
title = "Generative AI - LLM & RAG",
|
328 |
theme="soft",
|
329 |
chatbot=chatbot_stream,
|
330 |
-
retry_btn="Wiederholen",
|
331 |
undo_btn="Letztes löschen",
|
332 |
clear_btn="Verlauf löschen",
|
333 |
additional_inputs=additional_inputs,
|
|
|
258 |
#LLM auswählen (OpenAI oder HF)
|
259 |
###########################
|
260 |
#Anfrage an OpenAI
|
261 |
+
llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature = 0)
|
262 |
#oder an Hugging Face
|
263 |
+
#llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 64})
|
264 |
|
265 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
266 |
if (rag_option == "Chroma"):
|
|
|
327 |
title = "Generative AI - LLM & RAG",
|
328 |
theme="soft",
|
329 |
chatbot=chatbot_stream,
|
330 |
+
retry_btn="📁 Wiederholen",
|
331 |
undo_btn="Letztes löschen",
|
332 |
clear_btn="Verlauf löschen",
|
333 |
additional_inputs=additional_inputs,
|