alexkueck commited on
Commit
7a5f6aa
1 Parent(s): 040922d

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +12 -7
utils.py CHANGED
@@ -281,17 +281,22 @@ def document_retrieval_mongodb(llm, prompt):
281
  #Langchain anlegen
282
  ###############################################
283
  #langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
284
- def llm_chain(llm, prompt):
285
- llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
286
- result = llm_chain.run({"question": prompt})
 
 
 
287
  return result
288
 
289
  #nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
290
- def llm_chain2(llm, prompt):
291
- llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
292
- result = llm_chain.run({"question": prompt})
 
 
 
293
  return result
294
-
295
  #############################################
296
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
297
  def rag_chain(llm, prompt, db):
 
281
  #Langchain anlegen
282
  ###############################################
283
  #langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
284
+ def llm_chain(llm, prompt, hugchat):
285
+ if (!hugchat):
286
+ llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
287
+ result = llm_chain.run({"question": prompt})
288
+ else:
289
+ result = chatbot.query(prompt, web_search=True)
290
  return result
291
 
292
  #nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
293
+ def llm_chain2(llm, prompt, hugchat):
294
+ if (!hugchat):
295
+ llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
296
+ result = llm_chain.run({"question": prompt})
297
+ else:
298
+ result = chatbot.query(prompt, web_search=True)
299
  return result
 
300
  #############################################
301
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
302
  def rag_chain(llm, prompt, db):