Update README.md
Browse files
README.md
CHANGED
@@ -12,25 +12,25 @@ base_model:
|
|
12 |
- google/gemma-2-27b
|
13 |
---
|
14 |
|
15 |
-
|
16 |
gemma-2利用にあたり、ライセンス制約上の懸念のあるデータセットは利用していない。
|
17 |
|
18 |
-
|
19 |
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
|
20 |
- [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0)
|
21 |
- [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT)
|
22 |
- MITライセンスのデータのみ抽出して使用。
|
23 |
-
|
24 |
- [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
|
25 |
|
26 |
|
27 |
-
|
28 |
- ベースモデル(google/gemma-2-27b)にSFT使用データ(サンプリング)を使って、Loraアダプタを作成(Taka2024/gemma-2-27b-it-2_lora)
|
29 |
- ベースモデルとLoraアダプタをマージ(Taka2024/gemma-2-27b-it-2_lora_merged)
|
30 |
- マージしたモデルにDPO使用データ(サンプリング)を使って、DPOアダプタを作成(Taka2024/gemma-2-27b-dpo-1)
|
31 |
|
32 |
|
33 |
-
|
34 |
unsloth版のサンプルコード(Google Colab L4使用)をベースとし、推論は1時間以内で終了するようになっている。
|
35 |
|
36 |
```
|
@@ -126,7 +126,7 @@ with open(f"/content/{json_file_id}_output_IF.jsonl", 'w', encoding='utf-8') as
|
|
126 |
```
|
127 |
|
128 |
|
129 |
-
|
130 |
|
131 |
- **Developed by:** Taka2024
|
132 |
- **License:** gemma
|
|
|
12 |
- google/gemma-2-27b
|
13 |
---
|
14 |
|
15 |
+
## 学習データセット
|
16 |
gemma-2利用にあたり、ライセンス制約上の懸念のあるデータセットは利用していない。
|
17 |
|
18 |
+
### SFT使用データ
|
19 |
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
|
20 |
- [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0)
|
21 |
- [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT)
|
22 |
- MITライセンスのデータのみ抽出して使用。
|
23 |
+
### DPO使用データ
|
24 |
- [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
|
25 |
|
26 |
|
27 |
+
## モデル作成手順
|
28 |
- ベースモデル(google/gemma-2-27b)にSFT使用データ(サンプリング)を使って、Loraアダプタを作成(Taka2024/gemma-2-27b-it-2_lora)
|
29 |
- ベースモデルとLoraアダプタをマージ(Taka2024/gemma-2-27b-it-2_lora_merged)
|
30 |
- マージしたモデルにDPO使用データ(サンプリング)を使って、DPOアダプタを作成(Taka2024/gemma-2-27b-dpo-1)
|
31 |
|
32 |
|
33 |
+
## 推論手順
|
34 |
unsloth版のサンプルコード(Google Colab L4使用)をベースとし、推論は1時間以内で終了するようになっている。
|
35 |
|
36 |
```
|
|
|
126 |
```
|
127 |
|
128 |
|
129 |
+
## Uploaded model
|
130 |
|
131 |
- **Developed by:** Taka2024
|
132 |
- **License:** gemma
|