metadata
license: apache-2.0
datasets:
- ichikara-instruction
- elyza/ELYZA-tasks-100
- weblab-GENIAC/aya-ja-evol-instruct-calm3-dpo-masked
- llm-jp/hh-rlhf-12k-ja
language:
- ja
base_model:
- llm-jp/llm-jp-3-13b
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
Uploaded model
- Developed by: Namazu11
- License: apache-2.0
- Finetuned from model : llm-jp/llm-jp-3-13b
This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.
■このモデルは東京大学リスキリング講座「大規模言語モデル2024」の最終課題(コンペ)のためのものです。 「ELYZA-tasks-100-TV」というデータセットが配布され、精度を競います。