Orphen2024 commited on
Commit
8baa190
·
verified ·
1 Parent(s): be5aaf9

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +26 -12
app.py CHANGED
@@ -1,20 +1,34 @@
1
  import gradio as gr
 
 
 
2
 
3
- def procesa_imagen(imagen):
4
- # Aquí puedes añadir el procesamiento de la imagen
5
- # Por ejemplo, podrías usar un modelo de machine learning para análisis
6
- # Por simplicidad, solo devolveremos un mensaje de ejemplo
7
- return "Imagen recibida y procesada."
8
 
9
- # Crea la interfaz con Gradio
 
 
 
 
 
 
 
 
 
 
 
 
10
  iface = gr.Interface(
11
- fn=procesa_imagen, # La función que procesa la imagen
12
- inputs=gr.Image(type="filepath"), # Permite subir una imagen
13
- outputs=gr.Textbox(), # Muestra el resultado en un cuadro de texto
14
- title="Subida y procesamiento de imágenes",
15
- description="Sube una imagen y obtén un resultado de texto"
16
  )
17
 
18
- # Ejecuta la interfaz
19
  if __name__ == "__main__":
20
  iface.launch()
 
1
  import gradio as gr
2
+ from transformers import AutoModelForSequenceClassification, AutoTokenizer
3
+ import torch
4
+ from PIL import Image
5
 
6
+ # Carga el modelo y el tokenizer
7
+ model_name = "CarPeAs/reconocimiento-facial"
8
+ model = AutoModelForSequenceClassification.from_pretrained(model_name)
9
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
 
10
 
11
+ # Función de inferencia
12
+ def reconocer_emocion(image):
13
+ # Convierte la imagen a un formato aceptable por el modelo
14
+ # Ajusta esta parte si el modelo acepta otro formato o requiere preprocesamiento
15
+ inputs = tokenizer(image, return_tensors="pt")
16
+ with torch.no_grad():
17
+ outputs = model(**inputs)
18
+ # Asumiendo que las emociones están en las etiquetas de salida del modelo
19
+ emotion = torch.argmax(outputs.logits, dim=-1).item()
20
+ emociones = ["Feliz", "Triste", "Enojado", "Sorprendido", "Neutral"]
21
+ return emociones[emotion]
22
+
23
+ # Interfaz de Gradio
24
  iface = gr.Interface(
25
+ fn=reconocer_emocion,
26
+ inputs=gr.inputs.Image(type="pil"),
27
+ outputs=gr.outputs.Textbox(label="Emoción Reconocida"),
28
+ title="Reconocimiento Facial de Emociones",
29
+ description="Carga una imagen y el modelo reconocerá la emoción expresada en el rostro."
30
  )
31
 
32
+ # Ejecuta la aplicación
33
  if __name__ == "__main__":
34
  iface.launch()