alexkueck commited on
Commit
b6419e1
1 Parent(s): 3b6572c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -4
app.py CHANGED
@@ -309,8 +309,7 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, rag_option
309
  #aber nur, wenn es noch nicht geshehen ist (splittet = False)
310
  #falls schon ein File hochgeladen wurde, ist es in history_file gespeichert - falls ein neues File hochgeladen wurde, wird es anschließend neu gesetzt
311
  neu_file = file_history
312
- print("websuche")
313
- print(websuche)
314
  #prompt normalisieren bevor er an die KIs geht
315
  prompt = normalise_prompt(prompt_in)
316
 
@@ -328,7 +327,7 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, rag_option
328
  #kein Bild hochgeladen -> auf Text antworten...
329
  status = "Antwort der KI ..."
330
  if (file == None and file_history == None):
331
- result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35, websuche="Aus")
332
  history = history + [[prompt, result]]
333
  else:
334
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
@@ -432,7 +431,7 @@ def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, db):
432
  ####################################################
433
  #aus einem Text-Prompt die Antwort von KI bekommen
434
  #mit oder ohne RAG möglich
435
- def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35, websuche="Aus"):
436
  global splittet
437
  hugchat=False
438
  suche_im_Netz="Antwort der KI ..."
 
309
  #aber nur, wenn es noch nicht geshehen ist (splittet = False)
310
  #falls schon ein File hochgeladen wurde, ist es in history_file gespeichert - falls ein neues File hochgeladen wurde, wird es anschließend neu gesetzt
311
  neu_file = file_history
312
+
 
313
  #prompt normalisieren bevor er an die KIs geht
314
  prompt = normalise_prompt(prompt_in)
315
 
 
327
  #kein Bild hochgeladen -> auf Text antworten...
328
  status = "Antwort der KI ..."
329
  if (file == None and file_history == None):
330
+ result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
331
  history = history + [[prompt, result]]
332
  else:
333
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
 
431
  ####################################################
432
  #aus einem Text-Prompt die Antwort von KI bekommen
433
  #mit oder ohne RAG möglich
434
+ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
435
  global splittet
436
  hugchat=False
437
  suche_im_Netz="Antwort der KI ..."