๋ก๋งจ์ค ์ค์บ ๋ํ์, ์ผ์ ๋ํ๋ฅผ ํ์ฉํ์ฌ ์ง๋ํ์ตํ ์ค์บ ๋ํ ๊ฐ์ง AI ์
๋๋ค.
๋ชจ๋ธ ํ์ต์ ์ฌ์ฉ๋ ๋ฐ์ดํฐ๋ ์ ๋ถ ์ง์ ๊ณต์ํ ๊ฒ์ด๋ฉฐ, ํผํด์
์ ์ง์ธ, ์ฌ๊ฑด์ ๋ค๋ฃฌ ์ ํ๋ธ ๊ธฐ์ฌ ๋ฑ์ ํตํด ๋ํ ๋ด์ฉ์ ์
์ํ์ต๋๋ค.
11์ ์ด์ ์ฌ๋ผ์ฌ ์๋ก์ด ๋ฒ์ ผ์ AI๋ ๋ฐ์ดํฐ๋ฅผ ์ป๊ธฐ ์ํด ์ง์ ๋ก๋งจ์ค ์ค์บ , ๋ชธ์บ ํผ์ฑ์ ๋นํ๋ฉด์ ์ป์ ๋ฐ์ดํฐ๊ฐ ์ถ๊ฐ๋ก ํ์ต๋ ๋ชจ๋ธ์ด ์ฌ๋ผ์ฌ ๊ฒ ์
๋๋ค.
์
๋ ฅ์ผ๋ก ํ
์คํธ ๋ฐ์ดํฐ๋ฅผ ์ง์ด๋ฃ์ผ๋ฉด, ๋ฐํ์ผ๋ก 0, 1 ์ค ํ๋๋ฅผ ๋งํํฉ๋๋ค.
0์ด ์ผ๋ฐ๋ํ, 1์ด ๋ก๋งจ์ค ์ค์บ ๋ํ ์
๋๋ค.
๋ค์๊ณผ ๊ฐ์ ์ฝ๋๋ก ์ฌ์ฉ ํ ์ ์์ต๋๋ค.
from transformers import BertTokenizer, BertForSequenceClassification
import torch
# BERT ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ถ๋ฌ์ค๊ธฐ
model_name = "gihakkk/bert_scam_classifier"
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)
def predict_scam(text):
inputs = tokenizer(text, return_tensors='pt', truncation=True, padding=True, max_length=128)
with torch.no_grad():
outputs = model(**inputs)
prediction = torch.argmax(outputs.logits, dim=1).item()
return "์ ์" if prediction == 1 else "์ฌ๊ธฐ"
# ์์ ์คํ
text = "์ฌ๊ธฐ์ ๊ธ์ ์ ์ด์ฃผ์ธ์"
result = predict_scam(text)
print(f"์์ธก ๊ฒฐ๊ณผ: {result}")
- Downloads last month
- 50