Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -3,9 +3,10 @@ import streamlit as st
|
|
3 |
from transformers import GPT2LMHeadModel, GPT2Tokenizer
|
4 |
import numpy as np
|
5 |
from PIL import Image
|
6 |
-
#
|
|
|
7 |
|
8 |
-
st.
|
9 |
# History Mistery
|
10 |
""")
|
11 |
# image = Image.open('data-scins.jpeg')
|
@@ -15,7 +16,15 @@ st.write("""
|
|
15 |
# Загрузка модели и токенизатора
|
16 |
model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
17 |
tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
|
|
|
|
|
|
|
|
|
|
|
|
18 |
|
|
|
|
|
19 |
# Функция для генерации текста
|
20 |
def generate_text(prompt):
|
21 |
# Преобразование входной строки в токены
|
@@ -33,17 +42,25 @@ def generate_text(prompt):
|
|
33 |
|
34 |
# Streamlit приложение
|
35 |
def main():
|
36 |
-
st.
|
|
|
|
|
37 |
|
38 |
# Ввод строки пользователем
|
39 |
-
prompt = st.text_area("
|
40 |
|
41 |
# Генерация текста по введенной строке
|
42 |
generated_text = generate_text(prompt)
|
|
|
|
|
43 |
|
44 |
-
#
|
45 |
-
|
46 |
-
|
|
|
|
|
|
|
|
|
47 |
|
48 |
if __name__ == "__main__":
|
49 |
main()
|
|
|
3 |
from transformers import GPT2LMHeadModel, GPT2Tokenizer
|
4 |
import numpy as np
|
5 |
from PIL import Image
|
6 |
+
# Добавление слайдера
|
7 |
+
temperature = st.slider("Выберите градус недоверия", 1.0, 20.0, 1.0)
|
8 |
|
9 |
+
st.title("""
|
10 |
# History Mistery
|
11 |
""")
|
12 |
# image = Image.open('data-scins.jpeg')
|
|
|
16 |
# Загрузка модели и токенизатора
|
17 |
model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
18 |
tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
19 |
+
# #Задаем класс модели (уже в streamlit/tg_bot)
|
20 |
+
# model_finetuned = GPT2LMHeadModel.from_pretrained(
|
21 |
+
# 'sberbank-ai/rugpt3small_based_on_gpt2',
|
22 |
+
# output_attentions = False,
|
23 |
+
# output_hidden_states = False,
|
24 |
+
# )
|
25 |
|
26 |
+
# # Вешаем сохраненные веса на нашу модель
|
27 |
+
# model_finetuned.load_state_dict(torch.load('model_hostory.pt'))
|
28 |
# Функция для генерации текста
|
29 |
def generate_text(prompt):
|
30 |
# Преобразование входной строки в токены
|
|
|
42 |
|
43 |
# Streamlit приложение
|
44 |
def main():
|
45 |
+
st.write("""
|
46 |
+
# GPT-3 генерация текста
|
47 |
+
""")
|
48 |
|
49 |
# Ввод строки пользователем
|
50 |
+
prompt = st.text_area("Какую фразу нужно продолжить:", value="В средние века на руси")
|
51 |
|
52 |
# Генерация текста по введенной строке
|
53 |
generated_text = generate_text(prompt)
|
54 |
+
# Создание кнопки "Сгенерировать"
|
55 |
+
generate_button = st.button("Сгенерировать")
|
56 |
|
57 |
+
# Обработка события нажатия кнопки
|
58 |
+
if generate_button:
|
59 |
+
# Генерация текста на основе пользовательского ввода
|
60 |
+
generated_text = generate_text(user_input)
|
61 |
+
# Вывод сгенерированного текста
|
62 |
+
st.subheader("Продолжение:")
|
63 |
+
st.write(generated_text)
|
64 |
|
65 |
if __name__ == "__main__":
|
66 |
main()
|