haryra-7B-gguf / README.md
Haary's picture
Update README.md
3be8874 verified
|
raw
history blame
1.82 kB
metadata
license: apache-2.0

Haary/haryra-7B-gguf

merak

Haary/haryra-7B-gguf adalah Model LLM Bahasa Indonesia

Model Haary/haryra-7b-id adalah Model terkuantisasi dari Model Dasar Open-Orca/Mistral-7B-OpenOrca ke format GGUF.

Cara menjalankan dengan kode Python

Anda dapat menggunakan model GGUF dari Python menggunakan ctransformers library.

Cara memuat model ini dalam kode Python, menggunakan ctransformers

Pertama instal package ctransformers

Jalankan salah satu perintah berikut, sesuai dengan sistem Anda:

# Base ctransformers with no GPU acceleration
pip install ctransformers
# Or with CUDA GPU acceleration
pip install ctransformers[cuda]
# Or with AMD ROCm GPU acceleration (Linux only)
CT_HIPBLAS=1 pip install ctransformers --no-binary ctransformers
# Or with Metal GPU acceleration for macOS systems only
CT_METAL=1 pip install ctransformers --no-binary ctransformers

Contoh kode sederhana untuk menjalankan ctransformers

from ctransformers import AutoModelForCausalLM

# Set gpu_layers to the number of layers to offload to GPU. Set to 0 if no GPU acceleration is available on your system.
llm = AutoModelForCausalLM.from_pretrained("Ichsan2895/Merak-7B-v4-GGUF", model_file="Merak-7B-v4-model-q5_k_m.gguf", model_type="mistral", gpu_layers=50)

print(llm("AI is going to"))