lrds-code commited on
Commit
4c2cfcd
1 Parent(s): c93c33a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +14 -3
README.md CHANGED
@@ -15,6 +15,18 @@ tags:
15
  - peft
16
  - portuguese
17
  - instruct
 
 
 
 
 
 
 
 
 
 
 
 
18
  ---
19
 
20
  <hr>
@@ -75,8 +87,7 @@ tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct')
75
  instruction = 'Como desenvolver habilidades de programação em python?'
76
  text = GeneratePrompt(input='', instruction=instruction)
77
  inputs = tokenizer(text, return_tensors='pt')
78
- outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1)
79
-
80
  # repetition_penalty:
81
  # Observamos que em alguns casos de entrada o modelo repetiu excessivamente algumas palavras.
82
  # Esse parâmetro é usado para tentar reduzir esse comportamento.
@@ -160,7 +171,7 @@ tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct')
160
  instruction = 'Como desenvolver habilidades de programação em python?'
161
  text = GeneratePrompt(input='', instruction=instruction)
162
  inputs = tokenizer(text, return_tensors='pt')
163
- outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1)
164
 
165
  # repetition_penalty:
166
  # We observed that in some input cases the model began to repeat words excessively in its output.
 
15
  - peft
16
  - portuguese
17
  - instruct
18
+
19
+ task:
20
+ type: text-generation
21
+ dataset:
22
+ type: Muennighoff/xwinograd
23
+ name: XWinograd (pt)
24
+ config: pt
25
+ split: test
26
+ metrics:
27
+ type: Accuracy
28
+ value: 50.19
29
+
30
  ---
31
 
32
  <hr>
 
87
  instruction = 'Como desenvolver habilidades de programação em python?'
88
  text = GeneratePrompt(input='', instruction=instruction)
89
  inputs = tokenizer(text, return_tensors='pt')
90
+ outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1, do_sample=False
 
91
  # repetition_penalty:
92
  # Observamos que em alguns casos de entrada o modelo repetiu excessivamente algumas palavras.
93
  # Esse parâmetro é usado para tentar reduzir esse comportamento.
 
171
  instruction = 'Como desenvolver habilidades de programação em python?'
172
  text = GeneratePrompt(input='', instruction=instruction)
173
  inputs = tokenizer(text, return_tensors='pt')
174
+ outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1, do_sample=False)
175
 
176
  # repetition_penalty:
177
  # We observed that in some input cases the model began to repeat words excessively in its output.