drguilhermeapolinario commited on
Commit
9e6cf37
·
verified ·
1 Parent(s): ad2176e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +1 -29
app.py CHANGED
@@ -1,33 +1,5 @@
1
  import gradio as gr
2
 
3
- # Definindo a função para se conectar à API de inferência da Hugging Face
4
- def generate_response(prompt):
5
- from transformers import pipeline
6
- # Cria um pipeline de geração de texto com o modelo da Hugging Face
7
- pipe = pipeline("text-generation", model="Qwen/Qwen2.5-Coder-32B-Instruct")
8
- response = pipe(prompt, max_length=200, num_return_sequences=1)
9
- return response[0]['generated_text']
10
 
11
- # Construindo a interface com Gradio Blocks
12
- with gr.Blocks() as demo:
13
- # Título e Descrição
14
- gr.Markdown("# Interface Melhorada para Qwen2.5-Coder")
15
- gr.Markdown("### Um modelo avançado para geração de texto. Digite o prompt abaixo para obter uma resposta.")
16
-
17
- with gr.Row():
18
- with gr.Column(scale=2):
19
- # Caixa de entrada para o prompt
20
- input_text = gr.Textbox(lines=5, placeholder="Digite seu prompt aqui...", label="Entrada do Usuário")
21
- with gr.Column(scale=1):
22
- # Botão de Enviar
23
- submit_btn = gr.Button("Gerar Resposta")
24
-
25
- # Caixa de saída para exibir a resposta do modelo
26
- output_text = gr.Textbox(lines=10, label="Saída do Modelo", interactive=False)
27
-
28
- # Conexão do botão com a função
29
- submit_btn.click(generate_response, inputs=[input_text], outputs=[output_text])
30
-
31
- # Lançar a interface
32
- demo.launch()
33
 
 
1
  import gradio as gr
2
 
3
+ gr.load("models/Qwen/Qwen2.5-Coder-32B-Instruct").launch()
 
 
 
 
 
 
4
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5