Update README.md
Browse files
README.md
CHANGED
@@ -8,10 +8,15 @@ language:
|
|
8 |
- ja
|
9 |
tags:
|
10 |
- qwen
|
|
|
|
|
11 |
---
|
12 |
# pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf
|
13 |
[pfnetさんが公開しているnekomata-14b-pfn-qfin-inst-merge](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge)のggufフォーマット変換版です。
|
14 |
|
|
|
|
|
|
|
15 |
## ライセンス
|
16 |
tongyi-qianwenライセンスになります。
|
17 |
[ご使用前にライセンスをご確認ください。](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE)
|
@@ -28,4 +33,4 @@ git clone https://github.com/ggerganov/llama.cpp.git
|
|
28 |
cd llama.cpp
|
29 |
make -j
|
30 |
./main -m 'pfnet-nekomata-14b-pfn-qfin-inst-merge-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'
|
31 |
-
```
|
|
|
8 |
- ja
|
9 |
tags:
|
10 |
- qwen
|
11 |
+
datasets:
|
12 |
+
- TFMC/imatrix-dataset-for-japanese-llm
|
13 |
---
|
14 |
# pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf
|
15 |
[pfnetさんが公開しているnekomata-14b-pfn-qfin-inst-merge](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge)のggufフォーマット変換版です。
|
16 |
|
17 |
+
imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
|
18 |
+
|
19 |
+
|
20 |
## ライセンス
|
21 |
tongyi-qianwenライセンスになります。
|
22 |
[ご使用前にライセンスをご確認ください。](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE)
|
|
|
33 |
cd llama.cpp
|
34 |
make -j
|
35 |
./main -m 'pfnet-nekomata-14b-pfn-qfin-inst-merge-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'
|
36 |
+
```
|