Update README.md
Browse files
README.md
CHANGED
@@ -36,8 +36,8 @@ It can be used to encode Italian texts and compute similarities between them.
|
|
36 |
from transformers import AutoTokenizer, AutoModel
|
37 |
import numpy as np
|
38 |
|
39 |
-
tokenizer = AutoTokenizer.from_pretrained("
|
40 |
-
model = AutoModel.from_pretrained("
|
41 |
text1 = "Alessandro Manzoni è stato uno scrittore italiano"
|
42 |
text2 = "Giacomo Leopardi è stato un poeta italiano"
|
43 |
vec1 = model(tokenizer.encode(text1, return_tensors = "pt")).last_hidden_state[0,0,:].cpu().detach().numpy()
|
|
|
36 |
from transformers import AutoTokenizer, AutoModel
|
37 |
import numpy as np
|
38 |
|
39 |
+
tokenizer = AutoTokenizer.from_pretrained("osiria/distiluse-base-italian")
|
40 |
+
model = AutoModel.from_pretrained("osiria/distiluse-base-italian")
|
41 |
text1 = "Alessandro Manzoni è stato uno scrittore italiano"
|
42 |
text2 = "Giacomo Leopardi è stato un poeta italiano"
|
43 |
vec1 = model(tokenizer.encode(text1, return_tensors = "pt")).last_hidden_state[0,0,:].cpu().detach().numpy()
|