azra-kml commited on
Commit
d5b0bd7
1 Parent(s): 1806175

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -13
app.py CHANGED
@@ -1,17 +1,16 @@
1
  import streamlit as st
2
- import torch
3
- from transformers import AutoTokenizer, AutoModelForSequenceClassification
4
 
5
  # Başlık ve açıklama
6
- st.title("Fast Detect GPT")
7
  st.write("Bu uygulama, metnin yapay zeka tarafından üretilip üretilmediğini tespit eder.")
8
 
9
  # Model ve tokenizer yükleme
10
  @st.cache_resource
11
  def load_model():
12
- model_name = "baoguangsheng/fast-detect-gpt" # fast-detect-gpt modelinin Hugging Face modeli
13
  tokenizer = AutoTokenizer.from_pretrained(model_name)
14
- model = AutoModelForSequenceClassification.from_pretrained(model_name)
15
  return tokenizer, model
16
 
17
  tokenizer, model = load_model()
@@ -25,12 +24,8 @@ if st.button("Tahmin Et"):
25
  else:
26
  # Model tahmini
27
  inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True)
28
- outputs = model(**inputs)
29
- logits = outputs.logits
30
- prediction = torch.argmax(logits, dim=-1).item()
31
 
32
- # Tahmin sonucu
33
- if prediction == 1:
34
- st.success("Sonuç: Yapay Zeka Tarafından Üretildi")
35
- else:
36
- st.info("Sonuç: İnsan Tarafından Yazıldı")
 
1
  import streamlit as st
2
+ from transformers import AutoTokenizer, AutoModelForCausalLM
 
3
 
4
  # Başlık ve açıklama
5
+ st.title("Fast Detect GPT with GPT-Neo 2.7B")
6
  st.write("Bu uygulama, metnin yapay zeka tarafından üretilip üretilmediğini tespit eder.")
7
 
8
  # Model ve tokenizer yükleme
9
  @st.cache_resource
10
  def load_model():
11
+ model_name = "EleutherAI/gpt-neo-2.7B" # Hugging Face model adı
12
  tokenizer = AutoTokenizer.from_pretrained(model_name)
13
+ model = AutoModelForCausalLM.from_pretrained(model_name)
14
  return tokenizer, model
15
 
16
  tokenizer, model = load_model()
 
24
  else:
25
  # Model tahmini
26
  inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True)
27
+ outputs = model.generate(**inputs, max_length=50, num_return_sequences=1)
28
+ result = tokenizer.decode(outputs[0], skip_special_tokens=True)
 
29
 
30
+ # Sonuç gösterimi
31
+ st.success("Sonuç: " + result)