SaviAnna commited on
Commit
a8c7602
·
1 Parent(s): eeef851

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +24 -7
app.py CHANGED
@@ -3,9 +3,10 @@ import streamlit as st
3
  from transformers import GPT2LMHeadModel, GPT2Tokenizer
4
  import numpy as np
5
  from PIL import Image
6
- # import plotly.figure_factory as ff
 
7
 
8
- st.write("""
9
  # History Mistery
10
  """)
11
  # image = Image.open('data-scins.jpeg')
@@ -15,7 +16,15 @@ st.write("""
15
  # Загрузка модели и токенизатора
16
  model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
17
  tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
 
 
 
 
 
 
18
 
 
 
19
  # Функция для генерации текста
20
  def generate_text(prompt):
21
  # Преобразование входной строки в токены
@@ -33,17 +42,25 @@ def generate_text(prompt):
33
 
34
  # Streamlit приложение
35
  def main():
36
- st.title("GPT-3 Text Generation")
 
 
37
 
38
  # Ввод строки пользователем
39
- prompt = st.text_area("Enter your prompt:", value="В средние века на руси")
40
 
41
  # Генерация текста по введенной строке
42
  generated_text = generate_text(prompt)
 
 
43
 
44
- # Отображение сгенерированного текста
45
- st.subheader("Generated Text:")
46
- st.write(generated_text)
 
 
 
 
47
 
48
  if __name__ == "__main__":
49
  main()
 
3
  from transformers import GPT2LMHeadModel, GPT2Tokenizer
4
  import numpy as np
5
  from PIL import Image
6
+ # Добавление слайдера
7
+ temperature = st.slider("Выберите градус недоверия", 1.0, 20.0, 1.0)
8
 
9
+ st.title("""
10
  # History Mistery
11
  """)
12
  # image = Image.open('data-scins.jpeg')
 
16
  # Загрузка модели и токенизатора
17
  model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
18
  tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
19
+ # #Задаем класс модели (уже в streamlit/tg_bot)
20
+ # model_finetuned = GPT2LMHeadModel.from_pretrained(
21
+ # 'sberbank-ai/rugpt3small_based_on_gpt2',
22
+ # output_attentions = False,
23
+ # output_hidden_states = False,
24
+ # )
25
 
26
+ # # Вешаем сохраненные веса на нашу модель
27
+ # model_finetuned.load_state_dict(torch.load('model_hostory.pt'))
28
  # Функция для генерации текста
29
  def generate_text(prompt):
30
  # Преобразование входной строки в токены
 
42
 
43
  # Streamlit приложение
44
  def main():
45
+ st.write("""
46
+ # GPT-3 генерация текста
47
+ """)
48
 
49
  # Ввод строки пользователем
50
+ prompt = st.text_area("Какую фразу нужно продолжить:", value="В средние века на руси")
51
 
52
  # Генерация текста по введенной строке
53
  generated_text = generate_text(prompt)
54
+ # Создание кнопки "Сгенерировать"
55
+ generate_button = st.button("Сгенерировать")
56
 
57
+ # Обработка события нажатия кнопки
58
+ if generate_button:
59
+ # Генерация текста на основе пользовательского ввода
60
+ generated_text = generate_text(user_input)
61
+ # Вывод сгенерированного текста
62
+ st.subheader("Продолжение:")
63
+ st.write(generated_text)
64
 
65
  if __name__ == "__main__":
66
  main()