Update README.md
Browse files
README.md
CHANGED
@@ -14,12 +14,14 @@ base_model:
|
|
14 |
## Models
|
15 |
|
16 |
このリポジトリには複数のモデルが含まれています。
|
17 |
-
ファイル名の
|
18 |
|
19 |
-
- `gemma2-9b-*`
|
20 |
- ベースモデル: [google/gemma-2-9b](https://huggingface.co/google/gemma-2-9b)
|
21 |
-
-
|
|
|
22 |
- ベースモデル: [llm-jp/llm-jp-3-13b](https://huggingface.co/llm-jp/llm-jp-3-13b)
|
|
|
23 |
|
24 |
|
25 |
## Training Dataset
|
@@ -27,7 +29,7 @@ base_model:
|
|
27 |
### gemma2-9b-*
|
28 |
|
29 |
- [kajuma/CC-news-2024-July-October-cleaned](https://huggingface.co/datasets/kajuma/CC-news-2024-July-October-cleaned) (ODC-By)
|
30 |
-
-
|
31 |
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
|
32 |
- サンプリングして指示チューニングに利用
|
33 |
- [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
|
@@ -54,10 +56,11 @@ $ apt update && apt install -y lshw
|
|
54 |
$ curl -fsSL https://ollama.com/install.sh | sh
|
55 |
$ ollama serve
|
56 |
|
57 |
-
# --
|
58 |
|
59 |
-
# モデルのダウンロード
|
60 |
-
$ ollama pull hf.co/pokutuna/llm2024-
|
|
|
61 |
#
|
62 |
# Note.
|
63 |
# ダウンロード後、success と出力されるのを確認して下さい。
|
@@ -74,11 +77,14 @@ $ pip install -r llm2024-competition-runner/requirements.txt
|
|
74 |
|
75 |
### 出力の生成
|
76 |
|
|
|
|
|
77 |
```sh
|
78 |
$ python ./llm2024-competition-runner/generate.py \
|
79 |
-
--model="hf.co/pokutuna/llm2024-
|
|
|
80 |
--tasks=./tasks.jsonl \
|
81 |
-
--outfile=./output.jsonl
|
82 |
```
|
83 |
|
84 |
- `--tasks=<path>`
|
|
|
14 |
## Models
|
15 |
|
16 |
このリポジトリには複数のモデルが含まれています。
|
17 |
+
ファイル名の prefix に応じてベースモデル・ライセンス・トレーニングデータセットが異なります。
|
18 |
|
19 |
+
- `gemma2-9b-*`
|
20 |
- ベースモデル: [google/gemma-2-9b](https://huggingface.co/google/gemma-2-9b)
|
21 |
+
- [Gemma License](https://ai.google.dev/gemma/terms) ライセンス
|
22 |
+
- `llm-jp-3-13b-*`
|
23 |
- ベースモデル: [llm-jp/llm-jp-3-13b](https://huggingface.co/llm-jp/llm-jp-3-13b)
|
24 |
+
- [CC BY-NC-SA 4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/) (CC BY-NC-SA のデータを学習に用いたため)
|
25 |
|
26 |
|
27 |
## Training Dataset
|
|
|
29 |
### gemma2-9b-*
|
30 |
|
31 |
- [kajuma/CC-news-2024-July-October-cleaned](https://huggingface.co/datasets/kajuma/CC-news-2024-July-October-cleaned) (ODC-By)
|
32 |
+
- フィルタし本文部分を抽出して継続事前学習に利用
|
33 |
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
|
34 |
- サンプリングして指示チューニングに利用
|
35 |
- [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
|
|
|
56 |
$ curl -fsSL https://ollama.com/install.sh | sh
|
57 |
$ ollama serve
|
58 |
|
59 |
+
# -- 以降は ollama サーバーが起動した状態で別ターミナルプロセスから実行 --
|
60 |
|
61 |
+
# モデルのダウンロード (2つ必要です)
|
62 |
+
$ ollama pull hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf
|
63 |
+
$ ollama pull hf.co/pokutuna/llm2024-competition:llm-jp-3-13b-v2-Q6_K.gguf
|
64 |
#
|
65 |
# Note.
|
66 |
# ダウンロード後、success と出力されるのを確認して下さい。
|
|
|
77 |
|
78 |
### 出力の生成
|
79 |
|
80 |
+
(演習環境でおよそ 25~35 分程度かかります)
|
81 |
+
|
82 |
```sh
|
83 |
$ python ./llm2024-competition-runner/generate.py \
|
84 |
+
--model="hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf" \
|
85 |
+
--sub-model="hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf" \
|
86 |
--tasks=./tasks.jsonl \
|
87 |
+
--outfile=./output-pokutuna.jsonl
|
88 |
```
|
89 |
|
90 |
- `--tasks=<path>`
|