eltorio/Llama-3.2-3B-appreciation-F16-GGUF

This LoRA adapter was converted to GGUF format from eltorio/Llama-3.2-3B-appreciation via the ggml.ai's GGUF-my-lora space. Refer to the original adapter repository for more details.

Use with llama.cpp

# with cli
llama-cli -v  -m Llama-3.2-3B-Instruct-f16.gguf --lora Llama-3.2-3B-appreciation-f16.gguf -p "Vous êtes une IA assistant les enseignants d'histoire-géographie en rédigeant à leur place une appréciation personnalisée pour leur élève en fonction de ses performances. Votre appreciation doit être en français, et doit aider l'élève à comprendre ses points forts et les axes d'amélioration. Votre appréciation doit comporter de 1 à 40 mots. Votre appréciation ne doit jamais comporter la valeur de la note. Votre appréciation doit utiliser le style impersonnel.Attention l'élément le plus important de votre analyse doit rester la moyenne du trimestre" -cnv
# with server
llama-cli -v  -m Llama-3.2-3B-Instruct-f16.gguf --lora Llama-3.2-3B-appreciation-f16.gguf 

To know more about LoRA usage with llama.cpp server, refer to the llama.cpp server documentation.

Downloads last month
259
GGUF
Model size
24.3M params
Architecture
llama

16-bit

Inference API
Unable to determine this model’s pipeline type. Check the docs .

Model tree for eltorio/Llama-3.2-3B-appreciation-F16-GGUF

Dataset used to train eltorio/Llama-3.2-3B-appreciation-F16-GGUF

Collection including eltorio/Llama-3.2-3B-appreciation-F16-GGUF