Update app.py
Browse files
app.py
CHANGED
@@ -16,12 +16,12 @@ llm = LlmBackend()
|
|
16 |
_lock = threading.Lock()
|
17 |
|
18 |
SYSTEM_PROMPT = os.environ.get('SYSTEM_PROMPT') or "Ты — русскоязычный автоматический ассистент. Ты максимально точно и отвечаешь на запросы пользователя, используя русский язык."
|
19 |
-
CONTEXT_SIZE = os.environ.get('CONTEXT_SIZE') or 500
|
20 |
HF_CACHE_DIR = os.environ.get('HF_CACHE_DIR') or '/home/user/app/.cache'
|
21 |
-
USE_SYSTEM_PROMPT = os.environ.get('USE_SYSTEM_PROMPT') or False
|
22 |
-
ENABLE_GPU = os.environ.get('ENABLE_GPU') or False
|
23 |
-
GPU_LAYERS = os.environ.get('GPU_LAYERS') or 0
|
24 |
-
N_GQA = os.environ.get('N_GQA') or None #must be set to 8 for 70b models
|
25 |
CHAT_FORMAT = os.environ.get('CHAT_FORMAT') or 'llama-2'
|
26 |
REPO_NAME = os.environ.get('REPO_NAME') or 'IlyaGusev/saiga2_7b_gguf'
|
27 |
MODEL_NAME = os.environ.get('MODEL_NAME') or 'model-q4_K.gguf'
|
|
|
16 |
_lock = threading.Lock()
|
17 |
|
18 |
SYSTEM_PROMPT = os.environ.get('SYSTEM_PROMPT') or "Ты — русскоязычный автоматический ассистент. Ты максимально точно и отвечаешь на запросы пользователя, используя русский язык."
|
19 |
+
CONTEXT_SIZE = int(os.environ.get('CONTEXT_SIZE')) or 500
|
20 |
HF_CACHE_DIR = os.environ.get('HF_CACHE_DIR') or '/home/user/app/.cache'
|
21 |
+
USE_SYSTEM_PROMPT = os.environ.get('USE_SYSTEM_PROMPT', '').lower() == "true" or False
|
22 |
+
ENABLE_GPU = os.environ.get('ENABLE_GPU', '').lower() == "true" or False
|
23 |
+
GPU_LAYERS = int(os.environ.get('GPU_LAYERS')) or 0
|
24 |
+
N_GQA = int(os.environ.get('N_GQA')) or None #must be set to 8 for 70b models
|
25 |
CHAT_FORMAT = os.environ.get('CHAT_FORMAT') or 'llama-2'
|
26 |
REPO_NAME = os.environ.get('REPO_NAME') or 'IlyaGusev/saiga2_7b_gguf'
|
27 |
MODEL_NAME = os.environ.get('MODEL_NAME') or 'model-q4_K.gguf'
|