|
--- |
|
inference: false |
|
language: |
|
- pt |
|
license: other |
|
model_creator: 22H |
|
model_link: https://huggingface.co/22h/open-cabrita3b |
|
model_name: Open Cabrita 3B |
|
model_type: llama |
|
quantized_by: TheBloke |
|
--- |
|
|
|
# Open Cabrita 3B - GGUF |
|
- Criador do Modelo: [22h](https://huggingface.co/22h) |
|
- Modelo Original: [Open Cabrita 3B](https://huggingface.co/22h/open-cabrita3b) |
|
|
|
## Provided files |
|
|
|
| Nome | Método Quant | Bits | Tamanho | Desc | |
|
| ---- | ---- | ---- | ---- | ---- | ----- | |
|
|
|
| [ggml-opencabrita3b-q4_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_0.gguf) | q4_0 | 4 | 1.94 GB | Quantização em 4-bit. | |
|
| [ggml-opencabrita3b-q4_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_1.gguf) | q4_1 | 4 | 2.14 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. | |
|
| [ggml-opencabrita3b-q5_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_0.gguf) | q5_0 | 5 | 2.34 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. | |
|
| [ggml-opencabrita3b-q5_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_1.gguf) | q5_1 | 5 | 2.53 GB | Quantização em 5-bit. Ainda Melhor acurácia, maior uso de recursos, inferência mais lenta. | |
|
| [ggml-opencabrita3b-q8_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q8_0.gguf) | q8_0 | 8 | 3.52 GB | Quantização em 8-bit. Quase indistinguível do float16. Usa muitos recursos e é mais lento. | |
|
|
|
**Observação**: os valores de RAM acima não pressupõem descarregamento de GPU. Se as camadas forem descarregadas para a GPU, isso reduzirá o uso de RAM e usará VRAM. |
|
|
|
## Como executar com `llama.cpp` |
|
|
|
Usei o seguinte comando. Ajuste para suas necessidades: |
|
|
|
``` |
|
./main -m ./models/open-cabrita3b/ggml-opencabrita3b-q5_1.gguf -n 128 -p "Instrução: Escreva um poema sobre Ciência e Tecnologia. Resposta: " |
|
``` |
|
|
|
Para compreender os parâmetros, veja [a documentação do llama.cpp](https://github.com/ggerganov/llama.cpp/blob/master/examples/main/README.md) |
|
|