|
--- |
|
license: cc-by-sa-4.0 |
|
language: |
|
- ja |
|
--- |
|
|
|
# モデルの概要 |
|
- 日本語の文章を入力すると各文字ごとに誤植である確率を出力します |
|
- 各クラスのラベルは以下に従います |
|
0: xx |
|
1: xx |
|
2: xx |
|
3: xx |
|
4: xx |
|
5: xx |
|
6: xx |
|
7: xx |
|
8: xx |
|
- 本モデルは日本語の文章が入力されることを前提としています |
|
|
|
# モデルの使い方 |
|
```python |
|
import transformers |
|
``` |
|
|
|
# ライセンス |
|
- 本モデルは京都大学大学院情報学研究科知能情報学コース言語メディア研究室 (https://nlp.ist.i.kyoto-u.ac.jp/ )が公開しているRoBERTaの事前学習モデル(ku-nlp/roberta-base-japanese-char-wwm)をFine-Tuningしたものです。 |
|
- 本モデルは事前学習モデルのライセンス"CC-BY-SA 4.0"を継承します。 |
|
|
|
# 免責事項 |
|
- ㈱リクルートは、本モデル利用による成果に関し、正確性、有用性、確実性、違法性の確認及び何らの保証も補償を行わないものとし、また、モデル利用によって利用者に生じた損害および第三者との間における紛争について㈱リクルートは一切責任を負いません。 |
|
|