Modèles testés

Fiches signalétiques des modèles utilisés dans le cadre du protocole du laboratoire de tests. Tous les modèles référencés ici sont open weights, déployables localement et testés sur des configurations matérielles accessibles aux PME et associations.

Famille Mistral AI
Mistral 7B Instruct Mistral AI · Première génération
Mistral AI 2023 Texte
Caractéristiques techniques
Paramètres7,3 milliards
ArchitectureDense · Transformer
Fenêtre de contexte32 768 tokens (v0.2)
Sortie max8 192 tokens
Poids modèle ~~4,1 Go (Q4)
Informations de publication
Date de sortieSeptembre 2023
LicenceApache 2.0
TypeLLM · Texte uniquement
MultilingueOui
Fine-tuningSFT · version Instruct
Premier modèle open source de Mistral AI, sorti en septembre 2023. La version Instruct (fine-tuning supervisé) a rapidement établi une référence dans la catégorie 7B, surpassant Llama 2 13B sur la plupart des benchmarks malgré sa taille deux fois inférieure. Le modèle utilise une fenêtre d’attention glissante (Sliding Window Attention) dans sa version initiale, portée à 32k tokens en v0.2.
Ministral 3 · 3B / 8B / 14B Mistral AI · Génération 3 · Série edge multimodale
Mistral AI 2025 Texte + Vision
Caractéristiques techniques
Tailles disponibles3B · 8B · 14B
ArchitectureDense · Transformer
Fenêtre de contexte256 000 tokens
Poids 3B / 8B / 14B ~ ~ 3 Go / 6 Go / 9,1 Go
Quantisation (tests)Q4_K_M
Informations de publication
Date de sortieDécembre 2025
LicenceApache 2.0
TypeMultimodal · Texte + Vision
Langues natives40+ langues
Conçu pourEdge · Enterprise · Agentic
Nouvelle génération de la série edge de Mistral AI, sortie en décembre 2025. Les Ministral 3 apportent la vision (analyse d’images) à toute la gamme, une fenêtre de contexte étendue à 256k tokens, et trois variantes par taille (base, instruct, reasoning). Entraînés aux côtés de Mistral Large 3, ils constituent le meilleur rapport performance/coût de la catégorie open source selon Mistral AI. Chaque taille est disponible pour déploiement local via Ollama.
Famille Microsoft Research · Phi
Phi-3 Mini Instruct Microsoft Research · Famille Phi-3
Microsoft 2024 Texte
Caractéristiques techniques
Paramètres3,8 milliards
ArchitectureDense · Transformer decoder
Fenêtre de contexte128 000 tokens
Données entraînement3,3 T tokens
Poids modèle ~~2,3 Go (Q4)
Informations de publication
Date de sortieAvril–Mai 2024
LicenceMIT
TypeSLM · Texte uniquement
MultilingueLimité (anglais prioritaire)
Fine-tuningSFT + DPO
Premier modèle de la série Phi-3 à atteindre une fenêtre de contexte de 128k tokens dans la catégorie 3-4B. Son approche « data quality over quantity ». L’entraînement sur des données synthétiques de haute qualité plutôt que du web brut, lui confère des capacités de raisonnement supérieures à sa taille. Disponible en deux variantes de contexte : 4k et 128k tokens. Noté pour ses performances en mathématiques, raisonnement logique et code. Limites connues : moins performant que les modèles plus grands sur les connaissances factuelles et les langues autres que l’anglais.
Phi-4 Mini Instruct Microsoft Research · Famille Phi-4
Microsoft 2025 Texte
Caractéristiques techniques
Paramètres3,8 milliards
ArchitectureDense · GQA · vocab 200k
Fenêtre de contexte128 000 tokens
Poids modèle ~~ 2,5 Go
Quantisation (tests)Q4_K_M
Informations de publication
Date de sortieFévrier 2025
LicenceMIT
TypeSLM · Texte uniquement
MultilingueOui (amélioré vs Phi-3)
Fine-tuningSFT + DPO
Successeur direct de Phi-3 Mini, sorti en février 2025 conjointement avec Phi-4-multimodal. Le 4 Mini conserve les 3,8B paramètres mais introduit une architecture améliorée avec grouped-query attention (GQA) et un vocabulaire étendu à 200k tokens, permettant un meilleur support multilingue. Conçu pour des tâches de texte avec haute précision en contexte contraint : function calling, raisonnement, longues séquences. Testé dans le protocole IA LAB sur corpus pédagogique comme représentant de la catégorie Microsoft 3-4B face aux Ministraux.
Tableau récapitulatif
Modèle Éditeur Année Paramètres Contexte Type Licence Quantisation
Mistral 7B Instruct Mistral AI 2023 7,3B 32k Texte Apache 2.0 non testé
Ministral 3 · 3B Mistral AI 2025 3B 256k Texte + Vision Apache 2.0 Q4_K_M
Ministral 3 · 8B Mistral AI 2025 8B 256k Texte + Vision Apache 2.0 Q4_K_M
Ministral 3 · 14B Mistral AI 2025 14B 256k Texte + Vision Apache 2.0 Q4_K_M
Phi-3 Mini Instruct Microsoft 2024 3,8B 128k Texte MIT non testé
Phi-4 Mini Instruct Microsoft 2025 3,8B 128k Texte MIT Q4_K_M

Le tableau est mis à jour au fil des ajouts au protocole.

Critères de sélection des modèles
  • Tous les modèles testés sont open weights et déployables localement sans connexion internet
  • La sélection privilégie les modèles accessibles sur machines grand public (8–16 Go RAM) utilisées par les PME et associations
  • Chaque famille de taille (3B, 7–8B, 14B+) est représentée pour permettre des comparaisons inter-tailles
  • Au minimum deux éditeurs sont représentés pour permettre des comparaisons inter-architectures (Mistral AI vs Microsoft Research)
  • Les modèles sont testés dans leur version Instruct (fine-tuning supervisé pour le dialogue), pas en version base
  • La quantisation utilisée est précisée dans chaque fiche modèle et dans chaque article de test