mmnga's picture
Update README.md
92490ab verified
|
raw
history blame
1.55 kB
---
license: other
license_name: tongyi-qianwen
license_link: >-
https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE
language:
- en
- ja
tags:
- qwen
---
# pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf
[pfnetさんが公開しているnekomata-14b-pfn-qfin-inst-merge](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge)のggufフォーマット変換版です。
## ライセンス
tongyi-qianwenライセンスになります。
[ご使用前にライセンスをご確認ください。](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE)
## 他のモデル
[mmnga/pfnet-nekomata-14b-pfn-qfin-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-gguf)
[mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf)
## Usage
```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'pfnet-nekomata-14b-pfn-qfin-inst-merge-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'
```