Edit model card

calm3-22b-RP

GGUF版はこちら/Click here for the GGUF version

また、こちらで本モデルのデモを公開しています。ぜひお試しください。

概要

This is a merge of pre-trained language models created using mergekit.

cyberagent/calm3-22b-chatと、これをベースとしてロールプレイ用にファインチューニングしたモデルであるAratako/calm3-22b-RP-v0.1をマージして作成したモデルです。

利用した学習データセットやパラメータ等の詳細は元モデルのモデルカードを参照してください。

プロンプトフォーマット

元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。

<|im_start|>system
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|>
<|im_start|>user
{userの1ターン目の入力}<|im_end|>
<|im_start|>assistant
{assistantの1ターン目の応答}<|im_end|>
<|im_start|>user
{userの2ターン目の入力}<|im_end|>
<|im_start|>assistant

また、tokenizer.apply_chat_template()を使って自動で成形することも可能です。

tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP")
messages = [
    {"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"},
    {"role": "user", "content": "{userの1ターン目の入力}"},
    {"role": "assistant", "content": "{assistantの1ターン目の入力}"},
    {"role": "user", "content": "{userの2ターン目の入力}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)

マージの詳細

マージに利用しているモデルは以下の通りです。

また、mergekitのconfigは以下の通りです。

models:
  - model: cyberagent/calm3-22b-chat
    # no parameters necessary for base model
  - model: Aratako/calm3-22b-RP-v0.1
    parameters:
      weight: 0.5
merge_method: breadcrumbs
base_model: cyberagent/calm3-22b-chat
dtype: bfloat16
tokenizer_source: base
parameters:
    density: 0.9
    gamma: 0.01

ライセンス

本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。 そのため、本モデルはCC-BY-NC-SA 4.0の元配布します。

Downloads last month
21
Safetensors
Model size
22.5B params
Tensor type
BF16
·
Inference Examples
Inference API (serverless) is not available, repository is disabled.

Model tree for Aratako/calm3-22b-RP

Merge model
this model
Quantizations
1 model

Datasets used to train Aratako/calm3-22b-RP

Space using Aratako/calm3-22b-RP 1