Cicciokr's picture
Update note
9f4f212 verified
raw
history blame
306 Bytes
Il modello bert-latin-uncased utilizza il
decoder "type": "BPEDecoder"
Normalizer: type "Sequence" custom
vocab 222kb
mentre il modello addestrato da Luis Vasquez utilizza il
decoder "type": "WordPiece"
normalizer: "BertNormalizer"
vocab 180kb
entrambi generano un modello di tipo "type": "WordPiece"