Spaces:
Sleeping
Sleeping
File size: 1,510 Bytes
a93fcd0 c14dcf3 a93fcd0 ea4ea96 83dca78 a93fcd0 ea4ea96 c14dcf3 ea4ea96 83dca78 ea4ea96 83dca78 ea4ea96 a93fcd0 c14dcf3 ea4ea96 c14dcf3 ea4ea96 c14dcf3 ea4ea96 c14dcf3 ea4ea96 c14dcf3 ea4ea96 c14dcf3 ea4ea96 a93fcd0 c14dcf3 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 |
import gradio as gr
import requests
# Modelo open source en español (no requiere token)
API_URL = "https://api-inference.huggingface.co/models/DeepESP/gpt2-spanish"
headers = {}
# Prompt estructurado
def accionar_ai(pregunta):
prompt = f"""
Eres Accionar AI, una herramienta activista que apoya campañas sociales en América Latina.
Cuando una persona escribe una idea o pregunta, respondés con una estructura clara:
📌 Objetivo de la campaña:
🎯 Público objetivo:
📣 Mensaje clave:
🚀 Acciones sugeridas:
🤝 Posibles aliadas:
Usuario: {pregunta}
Accionar AI:
"""
payload = {
"inputs": prompt,
"parameters": {
"max_new_tokens": 250,
"temperature": 0.7,
"top_p": 0.95
}
}
response = requests.post(API_URL, headers=headers, json=payload)
result = response.json()
if isinstance(result, list):
texto = result[0]["generated_text"].split("Accionar AI:")[-1].strip()
return texto
else:
return f"⚠️ Error del modelo: {result.get('error', 'respuesta no válida')}"
# Interfaz Gradio
demo = gr.Interface(
fn=accionar_ai,
inputs=gr.Textbox(lines=3, placeholder="Escribe tu idea o pregunta de campaña aquí"),
outputs="text",
title="Accionar AI Commons (Demo en español)",
description="Asistente activista para campañas sociales en América Latina. Prueba escribir una idea como: 'Quiero lanzar una campaña por el derecho a decidir'."
)
demo.launch()
|