Shuu12121 commited on
Commit
986ff0b
·
verified ·
1 Parent(s): 501d796

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -7
app.py CHANGED
@@ -70,15 +70,16 @@ def generate_docstring(code: str) -> str:
70
  output_ids = model.generate(
71
  input_ids=inputs.input_ids,
72
  attention_mask=inputs.attention_mask,
73
- max_length=256, # 生成するDocstringの最大長
74
- num_beams=5, # ビームサーチのビーム数
75
- early_stopping=False, # 早く停止させるか
76
- # decoder_start_token_idは通常model.configから自動設定される
77
- eos_token_id=decoder_tokenizer.eos_token_id, # EOSトークンID
78
- pad_token_id=pad_token_id, # PADトークンID (Noneでないことを保証)
79
- no_repeat_ngram_size=2 # 繰り返さないN-gramサイズ
80
  )
81
 
 
82
  print(f"Generated output tokens length: {output_ids.shape[1]}")
83
 
84
  # デコードしてテキストに変換
 
70
  output_ids = model.generate(
71
  input_ids=inputs.input_ids,
72
  attention_mask=inputs.attention_mask,
73
+ max_length=128,
74
+ num_beams=4,
75
+ early_stopping=True,
76
+ eos_token_id=decoder_tokenizer.eos_token_id,
77
+ pad_token_id=pad_token_id,
78
+ no_repeat_ngram_size=3,
79
+ bad_words_ids=decoder_tokenizer(["sexual", "abuse", "child"], add_special_tokens=False).input_ids
80
  )
81
 
82
+
83
  print(f"Generated output tokens length: {output_ids.shape[1]}")
84
 
85
  # デコードしてテキストに変換