Il modello bert-latin-uncased utilizza il | |
decoder "type": "BPEDecoder" | |
Normalizer: type "Sequence" custom | |
vocab 222kb | |
mentre il modello addestrato da Luis Vasquez utilizza il | |
decoder "type": "WordPiece" | |
normalizer: "BertNormalizer" | |
vocab 180kb | |
entrambi generano un modello di tipo "type": "WordPiece" | |