Spaces:
Sleeping
Sleeping
import gradio as gr | |
from huggingface_hub import InferenceClient | |
import os | |
from dotenv import load_dotenv | |
# Загрузка файла .env (если ты тестируешь локально) | |
load_dotenv() | |
# Получение токена из переменной окружения | |
HF_TOKEN = os.getenv("HF_TOKEN") | |
# Настройка клиента Hugging Face с токеном | |
client = InferenceClient(model="IlyaGusev/saiga_llama3_8b", token=HF_TOKEN) | |
def summarize(text): | |
""" | |
Функция для вызова модели Hugging Face через API. | |
""" | |
try: | |
response = client.text_generation(text, max_new_tokens=100, do_sample=False) | |
return response | |
except Exception as e: | |
return f"Произошла ошибка: {e}" | |
# Интерфейс Gradio | |
demo = gr.Interface( | |
fn=summarize, | |
inputs=gr.Textbox(lines=5, label="Введите текст для суммаризации"), | |
outputs=gr.Textbox(label="Результат суммаризации"), | |
title="Суммаризация текста" | |
) | |
if __name__ == "__main__": | |
demo.launch() | |