aidenmp commited on
Commit
2bca814
verified
1 Parent(s): 432ac88

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -19
app.py CHANGED
@@ -1,24 +1,20 @@
1
  import streamlit as st
2
- import requests
 
3
 
4
- # Configuraci贸n de la API Key de Hugging Face
5
- API_KEY = "tu_api_key_aqui"
6
- MODEL_ID = "OpenAssistant/falcon-7b-sft-mix-2000" # Reemplaza con el modelo deseado
7
 
8
- # Funci贸n para hacer una solicitud a la API de Hugging Face
9
- def get_response_from_model(prompt):
10
- url = f"https://api-inference.huggingface.co/models/{MODEL_ID}"
11
- headers = {
12
- "Authorization": f"Bearer {API_KEY}"
13
- }
14
- data = {
15
- "inputs": prompt,
16
- }
17
- response = requests.post(url, headers=headers, json=data)
18
- if response.status_code == 200:
19
- return response.json()[0]['generated_text']
20
- else:
21
- return f"Error: {response.status_code} - {response.text}"
22
 
23
  # Crear la interfaz de usuario con Streamlit
24
  st.title("Asistente de OpenAssistant")
@@ -29,7 +25,7 @@ user_input = st.text_area("Tu mensaje:", height=150)
29
  if st.button("Generar respuesta"):
30
  if user_input:
31
  with st.spinner("Generando respuesta..."):
32
- response = get_response_from_model(user_input)
33
  st.subheader("Respuesta generada:")
34
  st.write(response)
35
  else:
 
1
  import streamlit as st
2
+ import os
3
+ from transformers import AutoModelForCausalLM, AutoTokenizer
4
 
5
+ # Obtener la API key desde la variable de entorno
6
+ api_key = os.getenv("HF_API_KEY")
 
7
 
8
+ # Cargar el modelo de OpenAssistant con la API key
9
+ model = AutoModelForCausalLM.from_pretrained("OpenAssistant/falcon-7b-sft-mix-2000", use_auth_token=api_key)
10
+ tokenizer = AutoTokenizer.from_pretrained("OpenAssistant/falcon-7b-sft-mix-2000", use_auth_token=api_key)
11
+
12
+ # Funci贸n para generar una respuesta usando el modelo cargado
13
+ def generate_response(prompt):
14
+ inputs = tokenizer(prompt, return_tensors="pt")
15
+ outputs = model.generate(**inputs)
16
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
17
+ return response
 
 
 
 
18
 
19
  # Crear la interfaz de usuario con Streamlit
20
  st.title("Asistente de OpenAssistant")
 
25
  if st.button("Generar respuesta"):
26
  if user_input:
27
  with st.spinner("Generando respuesta..."):
28
+ response = generate_response(user_input)
29
  st.subheader("Respuesta generada:")
30
  st.write(response)
31
  else: