84nth08h commited on
Commit
e97777e
·
verified ·
1 Parent(s): 68cf54b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +0 -3
README.md CHANGED
@@ -30,7 +30,6 @@ dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for
30
  load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
31
 
32
  # 必要なライブラリをインストール
33
- %%capture
34
  !pip install unsloth
35
  !pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
36
  !pip install -U torch
@@ -55,7 +54,6 @@ HF_R=userdata.get('HF_R')
55
 
56
  !huggingface-cli login --token $HF_R
57
 
58
- %%time
59
  dtype = None # Noneにしておけば自動で設定
60
  load_in_4bit = True # 今回は13Bモデルを扱うためTrue
61
 
@@ -85,7 +83,6 @@ with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
85
  datasets.append(json.loads(item))
86
  item = ""
87
 
88
- %%time
89
  # モデルを用いてタスクの推論。
90
 
91
  # 推論するためにモデルのモードを変更
 
30
  load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
31
 
32
  # 必要なライブラリをインストール
 
33
  !pip install unsloth
34
  !pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
35
  !pip install -U torch
 
54
 
55
  !huggingface-cli login --token $HF_R
56
 
 
57
  dtype = None # Noneにしておけば自動で設定
58
  load_in_4bit = True # 今回は13Bモデルを扱うためTrue
59
 
 
83
  datasets.append(json.loads(item))
84
  item = ""
85
 
 
86
  # モデルを用いてタスクの推論。
87
 
88
  # 推論するためにモデルのモードを変更