FROM ghcr.io/ggerganov/llama.cpp:server-cuda | |
ENV LLAMA_ARG_N_GPU_LAYERS=9999 | |
ENV LLAMA_ARG_CTX_SIZE=10000 | |
ENV LLAMA_ARG_FLASH_ATTN=1 | |
ENV LLAMA_ARG_HF_REPO=bartowski/Qwen2.5-Coder-14B-GGUF | |
ENV LLAMA_ARG_HF_FILE=Qwen2.5-Coder-14B-Q4_K_M.gguf | |
ENV LLAMA_ARG_N_PARALLEL=2 | |
ENV LLAMA_ARG_PORT=7860 | |
ENV LLAMA_ARG_HOST=0.0.0.0 | |
RUN useradd -m -u 1000 user | |
USER user | |