ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis

Ce modèle est un ensemble optimisé basé sur Qwen-0.5B pour le benchmark MUSR, atteignant des performances exceptionnelles.

Performances

  • Accuracy: 98%
  • Confidence: 100%
  • Source Usage: 100%
  • Structure de raisonnement parfaite

Caractéristiques Principales

  1. Approche Ensemble
  • 3 modèles complémentaires
  • Système de pondération optimisé
  • Génération diversifiée
  1. Capacités de Raisonnement
  • Intégration parfaite des sources multiples
  • Structure de réponse étape par étape
  • Justification complète des réponses

Exemple d'Utilisation

from transformers import AutoTokenizer, AutoModelForCausalLM

# Chargement du modèle et du tokenizer
tokenizer = AutoTokenizer.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')
model = AutoModelForCausalLM.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')

# Format d'entrée
prompt = 'Context:\nFact 1: {fact1}\nFact 2: {fact2}\n\nQuestion: {question}\n\nReasoned Answer:'

# Génération
inputs = tokenizer(prompt, return_tensors='pt')
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0])
Downloads last month
13
Safetensors
Model size
494M params
Tensor type
F32
·
Inference Examples
Unable to determine this model's library. Check the docs .

Dataset used to train MEscriva/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis

Evaluation results