GGUF
Japanese
English
Inference Endpoints
conversational

東京大学松尾・岩澤研究室(松尾研)大規模言語モデル Deep Learning 応用講座 2024 におけるコンペティション提出物を配置するリポジトリです。
elyza/ELYZA-tasks-100 風の独自の問題に対する出力を競います。

Models

このリポジトリには複数のモデルが含まれています。
ファイル名の prefix に応じてベースモデル・ライセンス・トレーニングデータセットが異なります。

Training Dataset

gemma2-9b-*

llm-jp-3-13b-*

実行方法(コンペ採点者の方向け)

事前準備

# lshw のインストール (ollama インストール時に GPU を検出するのに必要)
$ apt update && apt install -y lshw

# ollama (https://ollama.com/) のインストール & 起動
$ curl -fsSL https://ollama.com/install.sh | sh
$ ollama serve

# -- 以降は ollama サーバーが起動した状態で別ターミナルプロセスから実行 --

# モデルのダウンロード (2つ必要です)
$ ollama pull hf.co/pokutuna/llm2024-competition:gemma2-9b-v11.gguf
$ ollama pull hf.co/pokutuna/llm2024-competition:llm-jp-3-13b-v2-Q6_K.gguf
#
# Note.
#   各モデルのダウンロード後、success と出力されるのを確認して下さい。
#   演習環境で動作を確認済みですがネットワーク状況等により、
#   timeout (context deadline exceeded) が発生することがあります。
#   何度か実行すれば走り切ります。

# 回答生成コードの pull
$ git clone https://github.com/pokutuna/llm2024-competition-runner.git

# 依存ライブラリのインストール
$ pip install -r llm2024-competition-runner/requirements.txt

出力の生成

jsonl 形式のタスクファイルをコマンドライン引数に渡してください

$ python ./llm2024-competition-runner/generate.py \
  --tasks=./tasks.jsonl \
  --outfile=./output-pokutuna.jsonl
  • --tasks=<path>
    • タスクデータ、各行に input フィールドを持つ JSONL ファイルへのパス (elyza-tasks-100-TV_0.jsonl と同じ構造を想定)
  • --outfile=<path>
    • 結果の出力先、タスクデータの各行に対し output キーを出力結果として追加したもの

演習環境でおよそ 25~35 分程度かかります
ステップ毎に outfile に書き出します、最後まで走りきらなくても提出物は生成されます

Downloads last month
2,439
GGUF
Model size
9.24B params
Architecture
gemma2

6-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for pokutuna/llm2024-competition

Base model

google/gemma-2-9b
Quantized
(43)
this model

Datasets used to train pokutuna/llm2024-competition