Update utils.py
Browse files
utils.py
CHANGED
@@ -281,17 +281,22 @@ def document_retrieval_mongodb(llm, prompt):
|
|
281 |
#Langchain anlegen
|
282 |
###############################################
|
283 |
#langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
|
284 |
-
def llm_chain(llm, prompt):
|
285 |
-
|
286 |
-
|
|
|
|
|
|
|
287 |
return result
|
288 |
|
289 |
#nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
|
290 |
-
def llm_chain2(llm, prompt):
|
291 |
-
|
292 |
-
|
|
|
|
|
|
|
293 |
return result
|
294 |
-
|
295 |
#############################################
|
296 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
297 |
def rag_chain(llm, prompt, db):
|
|
|
281 |
#Langchain anlegen
|
282 |
###############################################
|
283 |
#langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
|
284 |
+
def llm_chain(llm, prompt, hugchat):
|
285 |
+
if (!hugchat):
|
286 |
+
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
287 |
+
result = llm_chain.run({"question": prompt})
|
288 |
+
else:
|
289 |
+
result = chatbot.query(prompt, web_search=True)
|
290 |
return result
|
291 |
|
292 |
#nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
|
293 |
+
def llm_chain2(llm, prompt, hugchat):
|
294 |
+
if (!hugchat):
|
295 |
+
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
|
296 |
+
result = llm_chain.run({"question": prompt})
|
297 |
+
else:
|
298 |
+
result = chatbot.query(prompt, web_search=True)
|
299 |
return result
|
|
|
300 |
#############################################
|
301 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
302 |
def rag_chain(llm, prompt, db):
|