Modèles testés
Fiches signalétiques des modèles utilisés dans le cadre du protocole du laboratoire de tests. Tous les modèles référencés ici sont open weights, déployables localement et testés sur des configurations matérielles accessibles aux PME et associations.
Famille Mistral AI
Mistral 7B Instruct
Mistral AI · Première génération
Mistral AI
2023
Texte
Caractéristiques techniques
Paramètres7,3 milliards
ArchitectureDense · Transformer
Fenêtre de contexte32 768 tokens (v0.2)
Sortie max8 192 tokens
Poids modèle ~~4,1 Go (Q4)
Informations de publication
Date de sortieSeptembre 2023
LicenceApache 2.0
TypeLLM · Texte uniquement
MultilingueOui
Fine-tuningSFT · version Instruct
Premier modèle open source de Mistral AI, sorti en septembre 2023. La version Instruct (fine-tuning supervisé) a rapidement établi une référence dans la catégorie 7B, surpassant Llama 2 13B sur la plupart des benchmarks malgré sa taille deux fois inférieure. Le modèle utilise une fenêtre d’attention glissante (Sliding Window Attention) dans sa version initiale, portée à 32k tokens en v0.2.
Ministral 3 · 3B / 8B / 14B
Mistral AI · Génération 3 · Série edge multimodale
Mistral AI
2025
Texte + Vision
Caractéristiques techniques
Tailles disponibles3B · 8B · 14B
ArchitectureDense · Transformer
Fenêtre de contexte256 000 tokens
Poids 3B / 8B / 14B ~ ~ 3 Go / 6 Go / 9,1 Go
Quantisation (tests)Q4_K_M
Informations de publication
Date de sortieDécembre 2025
LicenceApache 2.0
TypeMultimodal · Texte + Vision
Langues natives40+ langues
Conçu pourEdge · Enterprise · Agentic
Nouvelle génération de la série edge de Mistral AI, sortie en décembre 2025. Les Ministral 3 apportent la vision (analyse d’images) à toute la gamme, une fenêtre de contexte étendue à 256k tokens, et trois variantes par taille (base, instruct, reasoning). Entraînés aux côtés de Mistral Large 3, ils constituent le meilleur rapport performance/coût de la catégorie open source selon Mistral AI. Chaque taille est disponible pour déploiement local via Ollama.
Famille Microsoft Research · Phi
Phi-3 Mini Instruct
Microsoft Research · Famille Phi-3
Microsoft
2024
Texte
Caractéristiques techniques
Paramètres3,8 milliards
ArchitectureDense · Transformer decoder
Fenêtre de contexte128 000 tokens
Données entraînement3,3 T tokens
Poids modèle ~~2,3 Go (Q4)
Informations de publication
Date de sortieAvril–Mai 2024
LicenceMIT
TypeSLM · Texte uniquement
MultilingueLimité (anglais prioritaire)
Fine-tuningSFT + DPO
Premier modèle de la série Phi-3 à atteindre une fenêtre de contexte de 128k tokens dans la catégorie 3-4B. Son approche « data quality over quantity ». L’entraînement sur des données synthétiques de haute qualité plutôt que du web brut, lui confère des capacités de raisonnement supérieures à sa taille. Disponible en deux variantes de contexte : 4k et 128k tokens. Noté pour ses performances en mathématiques, raisonnement logique et code. Limites connues : moins performant que les modèles plus grands sur les connaissances factuelles et les langues autres que l’anglais.
Phi-4 Mini Instruct
Microsoft Research · Famille Phi-4
Microsoft
2025
Texte
Caractéristiques techniques
Paramètres3,8 milliards
ArchitectureDense · GQA · vocab 200k
Fenêtre de contexte128 000 tokens
Poids modèle ~~ 2,5 Go
Quantisation (tests)Q4_K_M
Informations de publication
Date de sortieFévrier 2025
LicenceMIT
TypeSLM · Texte uniquement
MultilingueOui (amélioré vs Phi-3)
Fine-tuningSFT + DPO
Successeur direct de Phi-3 Mini, sorti en février 2025 conjointement avec Phi-4-multimodal. Le 4 Mini conserve les 3,8B paramètres mais introduit une architecture améliorée avec grouped-query attention (GQA) et un vocabulaire étendu à 200k tokens, permettant un meilleur support multilingue. Conçu pour des tâches de texte avec haute précision en contexte contraint : function calling, raisonnement, longues séquences. Testé dans le protocole IA LAB sur corpus pédagogique comme représentant de la catégorie Microsoft 3-4B face aux Ministraux.
Tableau récapitulatif
| Modèle | Éditeur | Année | Paramètres | Contexte | Type | Licence | Quantisation |
|---|---|---|---|---|---|---|---|
| Mistral 7B Instruct | Mistral AI | 2023 | 7,3B | 32k | Texte | Apache 2.0 | non testé |
| Ministral 3 · 3B | Mistral AI | 2025 | 3B | 256k | Texte + Vision | Apache 2.0 | Q4_K_M |
| Ministral 3 · 8B | Mistral AI | 2025 | 8B | 256k | Texte + Vision | Apache 2.0 | Q4_K_M |
| Ministral 3 · 14B | Mistral AI | 2025 | 14B | 256k | Texte + Vision | Apache 2.0 | Q4_K_M |
| Phi-3 Mini Instruct | Microsoft | 2024 | 3,8B | 128k | Texte | MIT | non testé |
| Phi-4 Mini Instruct | Microsoft | 2025 | 3,8B | 128k | Texte | MIT | Q4_K_M |
Le tableau est mis à jour au fil des ajouts au protocole.
Critères de sélection des modèles
- Tous les modèles testés sont open weights et déployables localement sans connexion internet
- La sélection privilégie les modèles accessibles sur machines grand public (8–16 Go RAM) utilisées par les PME et associations
- Chaque famille de taille (3B, 7–8B, 14B+) est représentée pour permettre des comparaisons inter-tailles
- Au minimum deux éditeurs sont représentés pour permettre des comparaisons inter-architectures (Mistral AI vs Microsoft Research)
- Les modèles sont testés dans leur version Instruct (fine-tuning supervisé pour le dialogue), pas en version base
- La quantisation utilisée est précisée dans chaque fiche modèle et dans chaque article de test