--- library_name: transformers tags: - unsloth license: gemma datasets: - llm-jp/magpie-sft-v1.0 - DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k - weblab-GENIAC/Open-Platypus-Japanese-masked base_model: - google/gemma-2-27b --- ## 学習データ 以下のデータセットを使用。 - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0) - [DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k](https://huggingface.co/datasets/DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k) (apache-2.0) - [weblab-GENIAC/Open-Platypus-Japanese-masked](https://huggingface.co/datasets/weblab-GENIAC/Open-Platypus-Japanese-masked) (MIT) - MITライセンスのデータのみ抽出して使用。 gemma-2利用にあたり、ライセンス上制約の懸念のあるデータセットは利用していない。 [google/gemma-2-27b](https://huggingface.co/google/gemma-2-27b)にLoraアダプタ([Taka2024/gemma-2-27b-it-2_lora](https://huggingface.co/Taka2024/gemma-2-27b-it-2_lora))をマージ(16bit)して保存したもの。