Update app.py
Browse files
app.py
CHANGED
@@ -16,12 +16,13 @@ llm = LlmBackend()
|
|
16 |
_lock = threading.Lock()
|
17 |
|
18 |
SYSTEM_PROMPT = os.environ.get('SYSTEM_PROMPT') or "Ты — русскоязычный автоматический ассистент. Ты максимально точно и отвечаешь на запросы пользователя, используя русский язык."
|
19 |
-
CONTEXT_SIZE = int(os.environ.get('CONTEXT_SIZE'))
|
20 |
HF_CACHE_DIR = os.environ.get('HF_CACHE_DIR') or '/home/user/app/.cache'
|
21 |
USE_SYSTEM_PROMPT = os.environ.get('USE_SYSTEM_PROMPT', '').lower() == "true" or False
|
22 |
ENABLE_GPU = os.environ.get('ENABLE_GPU', '').lower() == "true" or False
|
23 |
-
GPU_LAYERS = int(os.environ.get('GPU_LAYERS'))
|
24 |
-
|
|
|
25 |
CHAT_FORMAT = os.environ.get('CHAT_FORMAT') or 'llama-2'
|
26 |
REPO_NAME = os.environ.get('REPO_NAME') or 'IlyaGusev/saiga2_7b_gguf'
|
27 |
MODEL_NAME = os.environ.get('MODEL_NAME') or 'model-q4_K.gguf'
|
|
|
16 |
_lock = threading.Lock()
|
17 |
|
18 |
SYSTEM_PROMPT = os.environ.get('SYSTEM_PROMPT') or "Ты — русскоязычный автоматический ассистент. Ты максимально точно и отвечаешь на запросы пользователя, используя русский язык."
|
19 |
+
CONTEXT_SIZE = int(os.environ.get('CONTEXT_SIZE', '500'))
|
20 |
HF_CACHE_DIR = os.environ.get('HF_CACHE_DIR') or '/home/user/app/.cache'
|
21 |
USE_SYSTEM_PROMPT = os.environ.get('USE_SYSTEM_PROMPT', '').lower() == "true" or False
|
22 |
ENABLE_GPU = os.environ.get('ENABLE_GPU', '').lower() == "true" or False
|
23 |
+
GPU_LAYERS = int(os.environ.get('GPU_LAYERS', '0'))
|
24 |
+
n_gqa_str = os.environ.get('N_GQA')
|
25 |
+
N_GQA = int(n_gqa_str) if n_gqa_str is not None else None #must be set to 8 for 70b models
|
26 |
CHAT_FORMAT = os.environ.get('CHAT_FORMAT') or 'llama-2'
|
27 |
REPO_NAME = os.environ.get('REPO_NAME') or 'IlyaGusev/saiga2_7b_gguf'
|
28 |
MODEL_NAME = os.environ.get('MODEL_NAME') or 'model-q4_K.gguf'
|