GGUF
Japanese
English
Inference Endpoints
conversational
pokutuna commited on
Commit
b3bf5cf
1 Parent(s): 3077f12

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +15 -9
README.md CHANGED
@@ -14,12 +14,14 @@ base_model:
14
  ## Models
15
 
16
  このリポジトリには複数のモデルが含まれています。
17
- ファイル名の Prefix に応じてライセンス・ベースモデル・トレーニングデータセットが異なります。
18
 
19
- - `gemma2-9b-*` ([gemma](https://ai.google.dev/gemma/terms))
20
  - ベースモデル: [google/gemma-2-9b](https://huggingface.co/google/gemma-2-9b)
21
- - `llm-jp-3-13b-*` ([CC-BY-NC-SA](https://creativecommons.org/licenses/by-nc-sa/4.0/))
 
22
  - ベースモデル: [llm-jp/llm-jp-3-13b](https://huggingface.co/llm-jp/llm-jp-3-13b)
 
23
 
24
 
25
  ## Training Dataset
@@ -27,7 +29,7 @@ base_model:
27
  ### gemma2-9b-*
28
 
29
  - [kajuma/CC-news-2024-July-October-cleaned](https://huggingface.co/datasets/kajuma/CC-news-2024-July-October-cleaned) (ODC-By)
30
- - 一定以上のテキスト長があり単体のニュース記事とみなせるものをフィルタし本文部分を抽出して利用
31
  - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
32
  - サンプリングして指示チューニングに利用
33
  - [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
@@ -54,10 +56,11 @@ $ apt update && apt install -y lshw
54
  $ curl -fsSL https://ollama.com/install.sh | sh
55
  $ ollama serve
56
 
57
- # -- 以降は別ターミナルプロセスから実行(ollama サーバーに対して実行) --
58
 
59
- # モデルのダウンロード
60
- $ ollama pull hf.co/pokutuna/llm2024-gemma2:gemma2-9b-v10.gguf
 
61
  #
62
  # Note.
63
  # ダウンロード後、success と出力されるのを確認して下さい。
@@ -74,11 +77,14 @@ $ pip install -r llm2024-competition-runner/requirements.txt
74
 
75
  ### 出力の生成
76
 
 
 
77
  ```sh
78
  $ python ./llm2024-competition-runner/generate.py \
79
- --model="hf.co/pokutuna/llm2024-gemma2:gemma2-9b-v10.gguf" \
 
80
  --tasks=./tasks.jsonl \
81
- --outfile=./output.jsonl
82
  ```
83
 
84
  - `--tasks=<path>`
 
14
  ## Models
15
 
16
  このリポジトリには複数のモデルが含まれています。
17
+ ファイル名の prefix に応じてベースモデル・ライセンス・トレーニングデータセットが異なります。
18
 
19
+ - `gemma2-9b-*`
20
  - ベースモデル: [google/gemma-2-9b](https://huggingface.co/google/gemma-2-9b)
21
+ - [Gemma License](https://ai.google.dev/gemma/terms) ライセンス
22
+ - `llm-jp-3-13b-*`
23
  - ベースモデル: [llm-jp/llm-jp-3-13b](https://huggingface.co/llm-jp/llm-jp-3-13b)
24
+ - [CC BY-NC-SA 4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/) (CC BY-NC-SA のデータを学習に用いたため)
25
 
26
 
27
  ## Training Dataset
 
29
  ### gemma2-9b-*
30
 
31
  - [kajuma/CC-news-2024-July-October-cleaned](https://huggingface.co/datasets/kajuma/CC-news-2024-July-October-cleaned) (ODC-By)
32
+ - フィルタし本文部分を抽出して継続事前学習に利用
33
  - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
34
  - サンプリングして指示チューニングに利用
35
  - [weblab-GENIAC/aya-ja-nemotron-dpo-masked](https://huggingface.co/datasets/weblab-GENIAC/aya-ja-nemotron-dpo-masked) (apache-2.0)
 
56
  $ curl -fsSL https://ollama.com/install.sh | sh
57
  $ ollama serve
58
 
59
+ # -- 以降は ollama サーバーが起動した状態で別ターミナルプロセスから実行 --
60
 
61
+ # モデルのダウンロード (2つ必要です)
62
+ $ ollama pull hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf
63
+ $ ollama pull hf.co/pokutuna/llm2024-competition:llm-jp-3-13b-v2-Q6_K.gguf
64
  #
65
  # Note.
66
  # ダウンロード後、success と出力されるのを確認して下さい。
 
77
 
78
  ### 出力の生成
79
 
80
+ (演習環境でおよそ 25~35 分程度かかります)
81
+
82
  ```sh
83
  $ python ./llm2024-competition-runner/generate.py \
84
+ --model="hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf" \
85
+ --sub-model="hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf" \
86
  --tasks=./tasks.jsonl \
87
+ --outfile=./output-pokutuna.jsonl
88
  ```
89
 
90
  - `--tasks=<path>`