---
base_model: mesolitica/mallam-1.1b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 1.1B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: >-
[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response.
[INST] This is the second user input. [/INST]
quantized_by: prsyahmi
tags:
- finetuned
language:
- ms
---
# Mallam 1.1B 20k Instructions v2 - GGUF
- Model creator: [mesolotica](https://huggingface.co/mesolitica)
- Original model: [Mallam 1.1B 20k Instructions v2](https://huggingface.co/mesolitica/mallam-1.1b-20k-instructions-v2)
## Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.
## Prompt template: Mistral
```
[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response.
[INST] This is the second user input. [/INST]
```
## Fail yang diberikan
Sila rujuk [Files and versions](https://huggingface.co/prsyahmi/mallam-1.1b-20k-instructions-v2-GGUF/tree/main)
## Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.
-------