File size: 2,595 Bytes
6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 6af4e89 92be135 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 |
---
library_name: transformers
tags:
- unsloth
- japanese
- llm-jp
- lora
datasets:
- GENIAC-Team-Ozaki/Hachi-Alpaca_newans
- llm-jp/magpie-sft-v1.0
language:
- ja
base_model:
- llm-jp/llm-jp-3-13b
---
# llm-jp-3-13b-SFT-LoRA モデルカード
llm-jp-3-13bをベースに、QLoRAとUnslothを用いて効率的なファインチューニングを行った日本語言語モデルです。
## モデルの詳細
### モデルの説明
- **開発者:** GENIAC Team
- **共有者:** GENIAC Team
- **モデルタイプ:** 言語モデル(デコーダーのみ)
- **言語:** 日本語
- **ライセンス:** ベースモデルに準拠
- **ベースモデル:** llm-jp/llm-jp-3-13b
### モデルソース
- **リポジトリ:** https://huggingface.co/llm-jp/llm-jp-3-13b
## 使用方法
### 直接利用
このモデルは以下のような用途に適しています:
- 質問応答
- テキスト生成
- 文章要約
- その他の自然言語処理タスク
### 対象外の使用
以下の用途での使用は推奨されません:
- 商用利用
- 重要な意思決定
- 医療・法律アドバイス
- 有害なコンテンツの生成
## バイアス、リスク、制限事項
- 学習データに起因するバイアスが存在する可能性があります
- 事実と異なる情報を生成する可能性があります
- 有害なコンテンツを生成する可能性があります
### 推奨事項
- 出力内容の検証を必ず行ってください
- センシティブな用途での使用は避けてください
- 生成された内容の責任は使用者が負うものとします
## モデルの使用開始方法
## 学習の詳細
### 学習データ
以下のデータセットを使用:
- GENIAC-Team-Ozaki/Hachi-Alpaca_newans
- llm-jp/magpie-sft-v1.0
### 学習手順
#### 前処理
- 指示文と回答のペアにフォーマット
- コンテキスト長を512トークンに制限
#### 学習ハイパーパラメータ
- **学習手法:** QLoRA with Unsloth
- **量子化:** 4-bit
- **LoRA設定:**
- rank (r): 32
- alpha: 32
- dropout: 0.05
- target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]
- **トレーニング設定:**
- バッチサイズ: 2
- 勾配累積: 4
- エポック数: 1
- 学習率: 2e-4
- シーケンス長: 512
## 技術仕様
### 計算インフラ
#### ハードウェア要件
- CUDA対応GPU
- 最小8GB VRAM推奨
#### ソフトウェア要件
- Python 3.10以上
- PyTorch 2.0以上
- Transformers最新版
- Unsloth(推奨) |