Spaces:
Running
Running
from vocab.gpt_35_turbo import tokenizer | |
print(tokenizer.get_vocab()) | |
text = "中" | |
token_ids = tokenizer.encode(text) | |
decode_str = tokenizer.convert_tokens_to_string(token_ids) | |
print(decode_str) | |