--- language: en tags: - musr - question-answering - reasoning - ensemble - qasc metrics: - accuracy: 0.98 - confidence: 1.0 - source_usage: 1.0 datasets: - allenai/qasc model-index: - name: ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis results: - task: type: question-answering name: Multi-Source Reasoning (MUSR) dataset: name: QASC type: allenai/qasc metrics: - name: Accuracy type: accuracy value: 0.98 --- # ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis Ce modèle est un ensemble optimisé basé sur Qwen-0.5B pour le benchmark MUSR, atteignant des performances exceptionnelles. ## Performances - Accuracy: 98% - Confidence: 100% - Source Usage: 100% - Structure de raisonnement parfaite ## Caractéristiques Principales 1. Approche Ensemble - 3 modèles complémentaires - Système de pondération optimisé - Génération diversifiée 2. Capacités de Raisonnement - Intégration parfaite des sources multiples - Structure de réponse étape par étape - Justification complète des réponses ## Exemple d'Utilisation ```python from transformers import AutoTokenizer, AutoModelForCausalLM # Chargement du modèle et du tokenizer tokenizer = AutoTokenizer.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis') model = AutoModelForCausalLM.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis') # Format d'entrée prompt = 'Context:\nFact 1: {fact1}\nFact 2: {fact2}\n\nQuestion: {question}\n\nReasoned Answer:' # Génération inputs = tokenizer(prompt, return_tensors='pt') outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0]) ```