Edit model card

Model description

Cyberagent様のcyberagent/calm2-7b-chatを追加学習した、作家さん用アシスタントAIのアルファ版です。 文章を入れると、続きを書いてくれます。 まだまだトレーニングの途中ですけど、概念実証のためHFにアップロードしました。 これからどんどんクオリティーを向上させていく予定です。 (もし興味のある方がいれば、safetensors形式のものも作りますので、Communityタブでご連絡ください。)

Intended uses & limitations

まだアルファ版ですけど、こちらの実験では十分アシスタントの役割を果たすことができることがわかりましたので、興味がある人はぜひお試しください。 TextGen-WebUIで使えます。 プロンプトは以下をお使いください。

あなたは誠実で優秀な日本人の書き手です。USERが書いた文章の続きを書いてください。
USER: (続きを書いてほしい文章)
ASSISTANT:

一例を添付します。

opennovel-alpha-screenshot

Training and evaluation data

約150Mトークンの小説テキストをShareGPT形式に変換して、追加学習しました。

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0002
  • train_batch_size: 1
  • eval_batch_size: 1
  • seed: 42
  • distributed_type: multi-GPU
  • num_devices: 3
  • gradient_accumulation_steps: 2
  • total_train_batch_size: 6
  • total_eval_batch_size: 3
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • lr_scheduler_warmup_steps: 100
  • num_epochs: 1

Framework versions

  • Transformers 4.34.1
  • Pytorch 2.0.1+cu118
  • Datasets 2.14.6
  • Tokenizers 0.14.1
Downloads last month
16
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for falche/opennovel_oc2_01a_7b

Finetuned
(4)
this model
Merges
1 model