File size: 1,098 Bytes
d925ac1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
---
library_name: transformers
tags:
- unsloth
license: gemma
datasets:
- llm-jp/magpie-sft-v1.0
- DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k
- weblab-GENIAC/Open-Platypus-Japanese-masked
base_model:
- google/gemma-2-27b
---
## 学習データ
以下のデータセットを使用。
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
- [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0)
- [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT)
- MITライセンスのデータのみ抽出して使用。
gemma-2利用にあたり、ライセンス上制約の懸念のあるデータセットは利用していない。
[google/gemma-2-27b](https://huggingface.co/google/gemma-2-27b)にLoraアダプタ([Taka2024/gemma-2-27b-it-2_lora](https://huggingface.co/Taka2024/gemma-2-27b-it-2_lora))をマージ(16bit)して保存したもの。 |