import gradio as gr # make function using import pip to install torch import pip pip.main(['install', 'torch']) pip.main(['install', 'transformers']) import torch import transformers # saved_model def load_model(model_path): saved_data = torch.load( model_path, map_location="cpu" ) bart_best = saved_data["model"] train_config = saved_data["config"] tokenizer = transformers.PreTrainedTokenizerFast.from_pretrained('gogamza/kobart-base-v1') ## Load weights. model = transformers.BartForConditionalGeneration.from_pretrained('gogamza/kobart-base-v1') model.load_state_dict(bart_best) return model, tokenizer # main def inference(prompt): model_path = "./kobart-model-essay.pth" model, tokenizer = load_model( model_path=model_path ) input_ids = tokenizer.encode(prompt) input_ids = torch.tensor(input_ids) input_ids = input_ids.unsqueeze(0) output = model.generate(input_ids) output = tokenizer.decode(output[0], skip_special_tokens=True) return output demo = gr.Interface( fn=inference, inputs="text", outputs="text", #return 값 examples=[ "꿈 속에서 나는 마법의 숲으로 떠나게 되었다. 마법의 숲에서 나는 빗자루를 타고 날아다녔다. 숲을 날아다니는 도중, 나는 신비로운 성을 발견하게 되었다. 그 성 안에는 무엇이 있을까? 나는 그 성 안으로 들어갔다. 성 안에는 마법사가 살고 있었는데, 나에게 마법을 가르쳐 주었다. 그 마법으로 나는 내가 좋아하는 음식을 만들어서 마음껏 먹었다!" ] ).launch() # launch(share=True)를 설정하면 외부에서 접속 가능한 링크가 생성됨 demo.launch()