Edit model card

Malaysian Mistral 7B 32k Instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF untuk mesolitica's Malaysian Mistral 7B 32k Instructions v2.

GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] {prompt} [/INST]

Fail yang diberikan

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.


Downloads last month
9
GGUF
Model size
7.24B params
Architecture
llama

4-bit

5-bit

Inference Examples
Inference API (serverless) is not available, repository is disabled.

Model tree for prsyahmi/malaysian-mistral-7b-32k-instructions-v2-ckpt-1700-GGUF