SmartMath_AI / app.py
dsfdfsghgf's picture
Update app.py
b416179 verified
raw
history blame
726 Bytes
import os
import gradio as gr
from transformers import pipeline
# Stelle sicher, dass das Hugging Face Token aus den Secrets abgerufen wird
hf_token = os.getenv('HF_TOKEN') # Holen des Tokens aus den Secrets
# Verwende das Token, wenn du das Modell von Hugging Face laden möchtest
generator = pipeline('text-generation', model='huggingface/qwen2.5', use_auth_token=hf_token)
def generate_text(prompt):
"""Generiert Text basierend auf der Eingabeaufforderung."""
result = generator(prompt, max_length=200)
return result[0]['generated_text']
# Gradio UI
interface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="Qwen 2.5 Math Modell")
# Starten des Gradio Interfaces
interface.launch()