V
VERA
v0.2
INTELLIGENCE
Solution d'intelligence artificielle nouvelle génération
Vera v0.2
Créé le : 7 mai 2025
Auteur : Dorian Dominici
Paramètres : 8 milliards
Contexte max. : 128 000 tokens
🌟 Description
Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un échange naturel principalement en français et en anglais, avec un support secondaire pour l'espagnol, l'italien, l'allemand et le polonais. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :
- 💬 Conversation fluide et naturelle
- 🔄 Traduction précise et contextuelle
- 📝 Génération et correction de code avancées
- 🤖 Agents IA pour tâches complexes
- 📊 Analyse de documents volumineux
🚀 Points forts
- Multilingue : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.
- Contexte étendu : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.
- Connaissance générale élevée : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.
- Polyvalence améliorée : Performances supérieures en chat, traduction, résumé, codage et raisonnement.
- Compétences techniques : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.
- Accès open-source : Facilement déployable et intégrable via la plateforme Hugging Face.
🛠️ Cas d'usage
| Domaine | Exemples |
|---|---|
| Chatbot & Assistance | Support client multilingue, systèmes conversationnels avancés |
| Traduction | Textes techniques, documentation spécialisée, littérature |
| Développement logiciel | Génération de code, débogage, documentation automatisée |
| Rédaction & Analyse | Articles, rapports, synthèses de documents volumineux |
| Automatisation IA | Agents conversationnels complexes, systèmes de RAG |
| Éducation | Tutoriels personnalisés, assistance à l'apprentissage |
Téléchargement et utilisation :
Option 1 : Via Ollama
ollama run hf.co/Dorian2B/Vera-v0.2-GGUF
Option 2 : Téléchargement direct (GGUF)
Option 3 : Utilisation avec Python (PyTorch)
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-v0.2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~8.5GB (Q8_0)
- Downloads last month
- 11
Hardware compatibility
Log In
to view the estimation
4-bit
5-bit
6-bit
8-bit
Model tree for Dorian2B/Vera-v0.2-GGUF
Base model
Dorian2B/Vera-v0.2