|
|
|
|
|
|
|
|
|
import streamlit as st |
|
from transformers import pipeline, AutoModelForMaskedLM, AutoTokenizer |
|
|
|
|
|
st.title("Completamento del testo in Latino con Latin BERT") |
|
st.write("Inserisci un testo con il token [MASK] per vedere le previsioni del modello.") |
|
|
|
|
|
input_text = st.text_input("Testo:", value="Lorem ipsum dolor sit amet, [MASK] adipiscing elit.") |
|
|
|
|
|
modelname = "LuisAVasquez/simple-latin-bert-uncased" |
|
tokenizer = AutoTokenizer.from_pretrained(modelname) |
|
model = AutoModelForMaskedLM.from_pretrained(modelname) |
|
|
|
fill_mask = pipeline("fill-mask", model=model, tokenizer=tokenizer) |
|
|
|
|
|
if input_text: |
|
predictions = fill_mask(input_text) |
|
st.subheader("Risultati delle previsioni con Simple Latin Bert:") |
|
for pred in predictions: |
|
st.write(f"**Parola**: {pred['token_str']}, **Probabilità**: {pred['score']:.4f}, **Sequence**: {pred['sequence']}") |
|
|
|
st.subheader("Risultati delle previsioni con Latin Bert:") |
|
path_to_latin_bert = "./models/latin_bert/" |
|
unmasker = pipeline('fill-mask', model=path_to_latin_bert) |
|
result = unmasker(input_text) |
|
for pred_due in result: |
|
st.write(f"**Parola**: {pred_due['token_str']}, **Probabilità**: {pred_due['score']:.4f}, **Sequence**: {pred_due['sequence']}") |
|
|