Update README.md
Browse files
README.md
CHANGED
@@ -30,8 +30,10 @@ pip install transformers==4.35.0
|
|
30 |
下面是单独调用hide模型的一个例子。
|
31 |
```ipython
|
32 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
33 |
-
tokenizer = AutoTokenizer.from_pretrained("tingxinli/
|
34 |
-
|
|
|
|
|
35 |
hide_template = """<s>Paraphrase the text:%s\n\n"""
|
36 |
original_input = "张伟用苹果(iPhone 13)换了一箱好吃的苹果。"
|
37 |
input_text = hide_template % original_input
|
@@ -48,8 +50,10 @@ print(hide_input)
|
|
48 |
下面是单独调用seek模型完成摘要解密的一个例子。
|
49 |
```ipython
|
50 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
51 |
-
tokenizer = AutoTokenizer.from_pretrained("tingxinli/
|
52 |
-
|
|
|
|
|
53 |
seek_template = "Convert the text:\n%s\n\n%s\n\nConvert the text:\n%s\n\n"
|
54 |
hide_input = "前天,'2022北京海淀·颐和园经贸合作洽谈会成功举行,各大媒体竞相报道了活动盛况,小李第一时间将昨天媒体报道情况进行了整理。人民日报 中国青年网 国际联合报 北京商报 消费者观察报 上海晚报 杭州日报 海峡晚报 北京日报 北京市电视一台?北京新闻 人民网 手机雅虎网 网易北京 长三角经济网 新京网 中国农业新闻网 北京圆桌 居然有这么多!还有部分媒体将在未来一周陆续发稿,为经洽会点!为海淀点!阅读投诉阅读精选留言加载中以上留言由公众号筛选后显示了解留言功能详情"
|
55 |
hide_output = "2022北京海淀·颐和园经贸合作洽谈会成功举办,各大媒体广泛报道"
|
@@ -71,17 +75,17 @@ print(original_output)
|
|
71 |
from hideAndSeek import *
|
72 |
|
73 |
tokenizer = AutoTokenizer.from_pretrained("tingxinli/hide-820m")
|
74 |
-
|
75 |
-
|
76 |
|
77 |
original_input = "华纳兄弟影业(Warner Bro)著名的作品有《蝙蝠侠》系列、《超人》系列、《黑客帝国》系列和《指环王》系列。目前华纳未考虑推出《蝙蝠侠》系列新作。"
|
78 |
print('original input:', original_input)
|
79 |
-
hide_input = hide_encrypt(original_input,
|
80 |
print('hide input:', hide_input)
|
81 |
prompt = "Translate the following text into English.\n %s\n" % hide_input
|
82 |
hide_output = get_gpt_output(prompt)
|
83 |
print('hide output:', hide_output)
|
84 |
-
original_output = seek_decrypt(hide_input, hide_output, original_input,
|
85 |
print('original output:', original_output)
|
86 |
|
87 |
# output:
|
|
|
30 |
下面是单独调用hide模型的一个例子。
|
31 |
```ipython
|
32 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
33 |
+
tokenizer = AutoTokenizer.from_pretrained("tingxinli/
|
34 |
+
HaS-820m")
|
35 |
+
model = AutoModelForCausalLM.from_pretrained("tingxinli/
|
36 |
+
HaS-820m").to('cuda:0')
|
37 |
hide_template = """<s>Paraphrase the text:%s\n\n"""
|
38 |
original_input = "张伟用苹果(iPhone 13)换了一箱好吃的苹果。"
|
39 |
input_text = hide_template % original_input
|
|
|
50 |
下面是单独调用seek模型完成摘要解密的一个例子。
|
51 |
```ipython
|
52 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
53 |
+
tokenizer = AutoTokenizer.from_pretrained("tingxinli/
|
54 |
+
HaS-820m")
|
55 |
+
model = AutoModelForCausalLM.from_pretrained("tingxinli/
|
56 |
+
HaS-820m").to('cuda:0')
|
57 |
seek_template = "Convert the text:\n%s\n\n%s\n\nConvert the text:\n%s\n\n"
|
58 |
hide_input = "前天,'2022北京海淀·颐和园经贸合作洽谈会成功举行,各大媒体竞相报道了活动盛况,小李第一时间将昨天媒体报道情况进行了整理。人民日报 中国青年网 国际联合报 北京商报 消费者观察报 上海晚报 杭州日报 海峡晚报 北京日报 北京市电视一台?北京新闻 人民网 手机雅虎网 网易北京 长三角经济网 新京网 中国农业新闻网 北京圆桌 居然有这么多!还有部分媒体将在未来一周陆续发稿,为经洽会点!为海淀点!阅读投诉阅读精选留言加载中以上留言由公众号筛选后显示了解留言功能详情"
|
59 |
hide_output = "2022北京海淀·颐和园经贸合作洽谈会成功举办,各大媒体广泛报道"
|
|
|
75 |
from hideAndSeek import *
|
76 |
|
77 |
tokenizer = AutoTokenizer.from_pretrained("tingxinli/hide-820m")
|
78 |
+
model = AutoModelForCausalLM.from_pretrained("tingxinli/
|
79 |
+
HaS-820m").to('cuda:0')
|
80 |
|
81 |
original_input = "华纳兄弟影业(Warner Bro)著名的作品有《蝙蝠侠》系列、《超人》系列、《黑客帝国》系列和《指环王》系列。目前华纳未考虑推出《蝙蝠侠》系列新作。"
|
82 |
print('original input:', original_input)
|
83 |
+
hide_input = hide_encrypt(original_input, model, tokenizer)
|
84 |
print('hide input:', hide_input)
|
85 |
prompt = "Translate the following text into English.\n %s\n" % hide_input
|
86 |
hide_output = get_gpt_output(prompt)
|
87 |
print('hide output:', hide_output)
|
88 |
+
original_output = seek_decrypt(hide_input, hide_output, original_input, model, tokenizer)
|
89 |
print('original output:', original_output)
|
90 |
|
91 |
# output:
|