import torch import transformers import gradio as gr # Check if CUDA is available and set the device use_cuda = torch.cuda.is_available() device = torch.device("cuda" if use_cuda else "cpu") # Load the tokenizer and model t5_tokenizer = transformers.GPT2Tokenizer.from_pretrained("SiberiaSoft/SiberianPersonaFred-2") t5_model = transformers.T5ForConditionalGeneration.from_pretrained("SiberiaSoft/SiberianPersonaFred-2").to(device) # Define the function to generate responses def generate_response(dialog, prompt_choice): dialog = dialog.strip() if len(dialog) == 0: return "Please enter a message." dialog = dialog[0].upper() + dialog[1:] # Choose the prompt based on user selection if prompt_choice == "Siberian Persona": prompt = 'Я культурный гопник, ем семечки, люблю играть в доту 2 на любимом герое инвокере, говорю без матов и маты не люблю, недавно у меня был такой диалог:' + '\nТы: ' + dialog + '\nЯ: ' else: # "Poet Persona" prompt = 'я поэт который пишет свои сообщения стихами с использованием мата и разным смыслом в зависимости от сообщений, недавно у меня был такой диалог:' + '\nТы: ' + dialog + '\nЯ: ' input_ids = t5_tokenizer(prompt, return_tensors='pt').input_ids.to(device) out_ids = t5_model.generate(input_ids=input_ids, do_sample=True, temperature=0.9, max_new_tokens=512, top_p=0.85, top_k=2, repetition_penalty=1.2) t5_output = t5_tokenizer.decode(out_ids[0][1:]) if '' in t5_output: t5_output = t5_output[:t5_output.find('')].strip() t5_output = t5_output.replace('', '').strip() t5_output = t5_output.split('Собеседник')[0].strip() return t5_output # Create a Gradio interface iface = gr.Interface(fn=generate_response, inputs=[gr.Textbox(label="Your Message"), gr.Radio(["Siberian Persona", "Poet Persona"], label="Choose Prompt")], outputs="text", title="Siberian Persona Chatbot", description="A chatbot that responds with a Siberian persona or as a poet. Choose your prompt.") # Launch the interface iface.launch()