svjack's picture
Create README.md
dcd3155
|
raw
history blame
696 Bytes
metadata
language:
  - zh
library_name: transformers
pipeline_tag: text2text-generation
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

tokenizer = AutoTokenizer.from_pretrained("svjack/T5-dialogue-collect-v5")

model = AutoModelForSeq2SeqLM.from_pretrained("svjack/T5-dialogue-collect-v5")

text =  '''
    根据下面的上下文进行分段:
    上下文 他 喜欢 吃 汉堡 是 但 我 可 不 喜欢。
    答案:
'''

tokenizer.decode(
model.generate(
    tokenizer.encode(
            text, return_tensors="pt", add_special_tokens=True
        ))[0],
skip_special_tokens = True
)

'''
'分段:他喜欢吃汉堡 分段:是的,但我可不喜欢。'
'''