---
license: mit
datasets:
- Calvin-Xu/FLFL-Aozora-Speech-Train
language:
- ja
metrics:
- sacrebleu
pipeline_tag: text2text-generation
---
# FLFL フリフリ
Furigana (ruby) generation model.
```python
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch_dtype = torch.bfloat16 if torch.cuda.is_available() and hasattr(torch.cuda, "is_bf16_supported") and torch.cuda.is_bf16_supported() else torch.float16
model = AutoModelForCausalLM.from_pretrained("Calvin-Xu/FLFL", device_map="auto", torch_dtype=torch_dtype)
tokenizer = AutoTokenizer.from_pretrained("Calvin-Xu/FLFL")
prompt_template = """[INST] {instruction}\n{input}\n[/INST]\n"""
sentence = "国境の長いトンネルを抜けると雪国であった"
inputs = tokenizer(prompt_template.format(instruction="次の文に正確に振り仮名を付けてください", input=sentence), return_tensors="pt").to(model.device)
with torch.no_grad():
tokens = model.generate(**inputs, max_new_tokens=512, do_sample=False)
output = tokenizer.decode(tokens[0], skip_special_tokens=False)
print(output)
# 国境の長いトンネルを抜けると雪国であった<|endoftext|>
```
### Finetuned from
[stockmark/gpt-neox-japanese-1.4b](https://huggingface.co/stockmark/gpt-neox-japanese-1.4b)
### Training Dataset
Trained for slightly over one epoch on [Calvin-Xu/FLFL-Aozora-Speech-Train](https://huggingface.co/datasets/Calvin-Xu/FLFL-Aozora-Speech-Train)
### Training Settings
HuggingFace Trainer, PEFT (r=64, alpha=128)
Control tokens added: `[INST]`, ` [/INST]`, ``, ``, ``
### Output Examples
```
[INST] 次の文に正確に振り仮名を付けてください
国境の長いトンネルを抜けると雪国であった
[/INST]
国境の長いトンネルを抜けると雪国であった<|endoftext|>
```
- 鰤の照り焼き、八宝菜、ハンバーグ。<|endoftext|>
- 主菜関連は、見事なまでの和洋中折衷。<|endoftext|>
- 別の者の目を通じて歴史を垣間見られるとは、想像を超える体験に違いない!<|endoftext|>
- 止めるなら、その大本を根絶やしにしないと効果がないわ<|endoftext|>
- 不人気銘柄でこれ以上価値が下がりようないから、ほとんど底値だ<|endoftext|>
- 時間の澱の中に沈殿していたようだ。<|endoftext|>