Update app.py
Browse files
app.py
CHANGED
@@ -559,6 +559,13 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
559 |
history = gr.State([])
|
560 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
561 |
user_question = gr.State("")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
562 |
################################################
|
563 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
564 |
################################################
|
@@ -633,12 +640,7 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
633 |
# Tab zum Zeichnen mit Stable Diffusion
|
634 |
################################################
|
635 |
with gr.Tab("KI zum Zeichnen"):
|
636 |
-
|
637 |
-
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
638 |
-
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
639 |
-
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
640 |
-
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
641 |
-
]
|
642 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
643 |
user_question2 = gr.State("")
|
644 |
with gr.Row():
|
|
|
559 |
history = gr.State([])
|
560 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
561 |
user_question = gr.State("")
|
562 |
+
#Add Inputs für Tab 2
|
563 |
+
additional_inputs = [
|
564 |
+
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
565 |
+
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
566 |
+
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
567 |
+
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
568 |
+
]
|
569 |
################################################
|
570 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
571 |
################################################
|
|
|
640 |
# Tab zum Zeichnen mit Stable Diffusion
|
641 |
################################################
|
642 |
with gr.Tab("KI zum Zeichnen"):
|
643 |
+
|
|
|
|
|
|
|
|
|
|
|
644 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
645 |
user_question2 = gr.State("")
|
646 |
with gr.Row():
|