Taka2024 commited on
Commit
b329e2e
·
verified ·
1 Parent(s): cb653d5

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -12,25 +12,25 @@ base_model:
12
  - google/gemma-2-27b
13
  ---
14
 
15
- # 学習データセット
16
  gemma-2利用にあたり、ライセンス制約上の懸念のあるデータセットは利用していない。
17
 
18
- ## SFT使用データ
19
  - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
20
  - [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0)
21
  - [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT)
22
  - MITライセンスのデータのみ抽出して使用。
23
- ## DPO使用データ
24
  - [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
25
 
26
 
27
- # モデル作成手順
28
  - ベースモデル(google/gemma-2-27b)にSFT使用データ(サンプリング)を使って、Loraアダプタを作成(Taka2024/gemma-2-27b-it-2_lora)
29
  - ベースモデルとLoraアダプタをマージ(Taka2024/gemma-2-27b-it-2_lora_merged)
30
  - マージしたモデルにDPO使用データ(サンプリング)を使って、DPOアダプタを作成(Taka2024/gemma-2-27b-dpo-1)
31
 
32
 
33
- # 推論手順
34
  unsloth版のサンプルコード(Google Colab L4使用)をベースとし、推論は1時間以内で終了するようになっている。
35
 
36
  ```
@@ -126,7 +126,7 @@ with open(f"/content/{json_file_id}_output_IF.jsonl", 'w', encoding='utf-8') as
126
  ```
127
 
128
 
129
- # Uploaded model
130
 
131
  - **Developed by:** Taka2024
132
  - **License:** gemma
 
12
  - google/gemma-2-27b
13
  ---
14
 
15
+ ## 学習データセット
16
  gemma-2利用にあたり、ライセンス制約上の懸念のあるデータセットは利用していない。
17
 
18
+ ### SFT使用データ
19
  - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
20
  - [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0)
21
  - [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT)
22
  - MITライセンスのデータのみ抽出して使用。
23
+ ### DPO使用データ
24
  - [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
25
 
26
 
27
+ ## モデル作成手順
28
  - ベースモデル(google/gemma-2-27b)にSFT使用データ(サンプリング)を使って、Loraアダプタを作成(Taka2024/gemma-2-27b-it-2_lora)
29
  - ベースモデルとLoraアダプタをマージ(Taka2024/gemma-2-27b-it-2_lora_merged)
30
  - マージしたモデルにDPO使用データ(サンプリング)を使って、DPOアダプタを作成(Taka2024/gemma-2-27b-dpo-1)
31
 
32
 
33
+ ## 推論手順
34
  unsloth版のサンプルコード(Google Colab L4使用)をベースとし、推論は1時間以内で終了するようになっている。
35
 
36
  ```
 
126
  ```
127
 
128
 
129
+ ## Uploaded model
130
 
131
  - **Developed by:** Taka2024
132
  - **License:** gemma