Spaces:
Sleeping
Sleeping
Update pages/📖History_Mystery.py
Browse files
pages/📖History_Mystery.py
CHANGED
@@ -15,19 +15,22 @@ max_length = st.slider(" Длина сгенерированного отрыв
|
|
15 |
# tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
16 |
# #Задаем класс модели (уже в streamlit/tg_bot)
|
17 |
@st.cache
|
|
|
18 |
def load_gpt():
|
19 |
model_GPT = GPT2LMHeadModel.from_pretrained(
|
20 |
'sberbank-ai/rugpt3small_based_on_gpt2',
|
21 |
-
output_attentions
|
22 |
-
output_hidden_states
|
23 |
)
|
24 |
tokenizer_GPT = GPT2Tokenizer.from_pretrained(
|
25 |
'sberbank-ai/rugpt3small_based_on_gpt2',
|
26 |
-
output_attentions
|
27 |
-
output_hidden_states
|
28 |
-
|
29 |
model_GPT.load_state_dict(torch.load('model_history_friday.pt', map_location=torch.device('cpu')))
|
30 |
return model_GPT, tokenizer_GPT
|
|
|
|
|
31 |
# # Вешаем сохраненные веса на нашу модель
|
32 |
# Функция для генерации текста
|
33 |
def generate_text(model_GPT, tokenizer_GPT, prompt):
|
|
|
15 |
# tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
16 |
# #Задаем класс модели (уже в streamlit/tg_bot)
|
17 |
@st.cache
|
18 |
+
@st.cache(allow_output_mutation=True)
|
19 |
def load_gpt():
|
20 |
model_GPT = GPT2LMHeadModel.from_pretrained(
|
21 |
'sberbank-ai/rugpt3small_based_on_gpt2',
|
22 |
+
output_attentions=False,
|
23 |
+
output_hidden_states=False,
|
24 |
)
|
25 |
tokenizer_GPT = GPT2Tokenizer.from_pretrained(
|
26 |
'sberbank-ai/rugpt3small_based_on_gpt2',
|
27 |
+
output_attentions=False,
|
28 |
+
output_hidden_states=False,
|
29 |
+
)
|
30 |
model_GPT.load_state_dict(torch.load('model_history_friday.pt', map_location=torch.device('cpu')))
|
31 |
return model_GPT, tokenizer_GPT
|
32 |
+
|
33 |
+
#model, tokenizer = load_gpt()
|
34 |
# # Вешаем сохраненные веса на нашу модель
|
35 |
# Функция для генерации текста
|
36 |
def generate_text(model_GPT, tokenizer_GPT, prompt):
|