Il modello bert-latin-uncased utilizza il decoder "type": "BPEDecoder" Normalizer: type "Sequence" custom vocab 222kb mentre il modello addestrato da Luis Vasquez utilizza il decoder "type": "WordPiece" normalizer: "BertNormalizer" vocab 180kb entrambi generano un modello di tipo "type": "WordPiece"