Update README.md
Browse files
README.md
CHANGED
@@ -14,8 +14,8 @@ tags:
|
|
14 |
|
15 |
# モデルカード(Model Card for Model ID)
|
16 |
|
17 |
-
C3TR-AdapterはGoogleが発表したLLMであるgemma-7bの日英・英日翻訳性能を向上させるQLoRAです。
|
18 |
-
C3TR-Adapter is a QLoRA that improves the Japanese-English and English-Japanese translation performance of gemma-7b released by Google.
|
19 |
|
20 |
## モデル詳細(Model Details)
|
21 |
|
@@ -33,10 +33,10 @@ You can try C3TR-Adapter for free using Google's web service Colab. Please press
|
|
33 |
自分のパソコンで動かす場合は、約8.3GB以上のGPU RAMが必要です。
|
34 |
If you want to run it on your own local computer, you will need approximately 8.3 GB or more of GPU RAM.
|
35 |
|
36 |
-
必要なライブラリのインストール
|
37 |
-
Installation of required libraries
|
38 |
```
|
39 |
-
#
|
|
|
40 |
# https://pytorch.org/get-started/locally/#start-locally
|
41 |
|
42 |
# example for linux user with CUDA 12.1.
|
@@ -45,12 +45,14 @@ Installation of required libraries
|
|
45 |
# example for windows user with CUDA 12.1.
|
46 |
# pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
|
47 |
|
|
|
|
|
48 |
pip install transformers==4.38.2
|
49 |
pip install peft==0.9.0
|
50 |
pip install bitsandbytes==0.42.0
|
51 |
```
|
52 |
|
53 |
-
サンプルスクリプト
|
54 |
```
|
55 |
import torch
|
56 |
import os
|
@@ -125,8 +127,8 @@ Additionally, We have the following request to you.
|
|
125 |
私たちの以前のモデルであるALMA-7B-Ja-V2のダウンロード件数は15万件を超えているのですが、どんな人がどのような場面で使っているのか全く把握できていません。
|
126 |
Our previous model, ALMA-7B-Ja-V2, has over 150K downloads, but we have no idea who is using it and in what situations.
|
127 |
|
128 |
-
そのため、使用した後は[Google
|
129 |
-
So, after you use it, please [fill out the Google form below with your impressions, future directions you expect us to take,
|
130 |
|
131 |
個人情報やメールアドレスは収集しないので、気軽にご記入をお願いします
|
132 |
We do not collect personal information or email address, so please feel free to fill out the form!
|
|
|
14 |
|
15 |
# モデルカード(Model Card for Model ID)
|
16 |
|
17 |
+
C3TR-AdapterはGoogleが発表したLLMであるgemma-7bの日英・英日翻訳性能を向上させるQLoRA Adapterです。
|
18 |
+
C3TR-Adapter is a QLoRA Adapter that improves the Japanese-English and English-Japanese translation performance of gemma-7b released by Google.
|
19 |
|
20 |
## モデル詳細(Model Details)
|
21 |
|
|
|
33 |
自分のパソコンで動かす場合は、約8.3GB以上のGPU RAMが必要です。
|
34 |
If you want to run it on your own local computer, you will need approximately 8.3 GB or more of GPU RAM.
|
35 |
|
36 |
+
必要なライブラリのインストール(Installation of required libraries)
|
|
|
37 |
```
|
38 |
+
# もし、pytorchがまだインストールされていなかったら公式マニュアルを参考にインストールしてください
|
39 |
+
# If pytorch is not already installed, please refer to the official manual to install it.
|
40 |
# https://pytorch.org/get-started/locally/#start-locally
|
41 |
|
42 |
# example for linux user with CUDA 12.1.
|
|
|
45 |
# example for windows user with CUDA 12.1.
|
46 |
# pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
|
47 |
|
48 |
+
# Gemmaは最新のライブラリでなくては動かないので、以下のVersionに更新してください
|
49 |
+
# Gemma will not work without the latest library, so please update to the following version
|
50 |
pip install transformers==4.38.2
|
51 |
pip install peft==0.9.0
|
52 |
pip install bitsandbytes==0.42.0
|
53 |
```
|
54 |
|
55 |
+
サンプルスクリプト(sample script)
|
56 |
```
|
57 |
import torch
|
58 |
import os
|
|
|
127 |
私たちの以前のモデルであるALMA-7B-Ja-V2のダウンロード件数は15万件を超えているのですが、どんな人がどのような場面で使っているのか全く把握できていません。
|
128 |
Our previous model, ALMA-7B-Ja-V2, has over 150K downloads, but we have no idea who is using it and in what situations.
|
129 |
|
130 |
+
そのため、使用した後は[Googleフォームに感想や今後期待する方向性、気が付いた誤訳の例、参考にして欲しいデータの場所、Webサイトなどを是非とも記入](https://forms.gle/Ycr9nWumvGamiNma9)してください。
|
131 |
+
So, after you use it, please [fill out the Google form below with your impressions, future directions you expect us to take, examples of mistranslations you have noticed, and locations of data you would like us to reference, websites, etc.](https://forms.gle/Ycr9nWumvGamiNma9) by all means.
|
132 |
|
133 |
個人情報やメールアドレスは収集しないので、気軽にご記入をお願いします
|
134 |
We do not collect personal information or email address, so please feel free to fill out the form!
|