RTX 5090
Points forts
- Exécute Stable Diffusion XL en Q4 natif
- 32 GB VRAM — marge suffisante
40 GPUs grand public peuvent exécuter Stable Diffusion XL en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU d’entrée (8 GB VRAM)
GTX 1660 Super
Fonctionne en Q4 — utilisable avec un peu d’attente
RTX 4060 Ti 16GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Vérifiez si votre GPU peut exécuter Stable Diffusion XL →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 12 GB | 13 GB | Maximum |
| Q8 (haute qualité) | 8 GB | 7 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 6 GB | 4 GB | Recommandée |
| Q2 (minimum) | 4 GB | 2.5 GB | Perte de qualité |
| Développeur | Stability AI |
| Paramètres | 6.6B |
| Licence | CreativeML Open RAIL++-M |
| Cas d’usage | image |
| Sortie | 2023-07 |
Hugging Face
stabilityai/stable-diffusion-xl-base-1.0 Stable Diffusion XL nécessite <strong class="text-primary-container">6 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou 4 GB, la latence d’offload augmente fortement.
40 Q4 natif · 0 offload
| GPU | VRAM | Compatibilité | Vitesse estimée | Action |
|---|---|---|---|---|
| RTX 5090 | 32GB | Optimal | 160 tok/s | Calculer → |
| RTX 4090 | 24GB | Optimal | 106 tok/s | Calculer → |
| M4 Ultra | 128GB | Optimal | 119 tok/s | Calculer → |
| RTX 5080 | 16GB | Optimal | 99 tok/s | Calculer → |
| M3 Ultra | 192GB | Optimal | 102 tok/s | Calculer → |
| RTX 4080 Super | 16GB | Optimal | 80 tok/s | Calculer → |
| RTX 5070 Ti | 16GB | Optimal | 86 tok/s | Calculer → |
| RTX 3090 | 24GB | Optimal | 78 tok/s | Calculer → |
| M4 Max 48GB | 48GB | Optimal | 69 tok/s | Calculer → |
| RX 7900 XTX | 24GB | Optimal | 92 tok/s | Calculer → |
| M4 Max 36GB | 36GB | Optimal | 67 tok/s | Calculer → |
| RTX 4070 Ti Super | 16GB | Optimal | 68 tok/s | Calculer → |
| RTX 3080 Ti | 12GB | Optimal | 72 tok/s | Calculer → |
| RX 7900 XT | 20GB | Optimal | 75 tok/s | Calculer → |
| RTX 5070 | 12GB | Optimal | 66 tok/s | Calculer → |
| RTX 3080 | 10GB | Optimal | 57 tok/s | Calculer → |
| M4 Pro | 24GB | Optimal | 46 tok/s | Calculer → |
| RX 7800 XT | 16GB | Optimal | 56 tok/s | Calculer → |
| RX 6800 XT | 16GB | Optimal | 40 tok/s | Calculer → |
| RTX 4070 | 12GB | Optimal | 47 tok/s | Calculer → |
| RTX 4060 Ti 16GB | 16GB | Optimal | 38 tok/s | Calculer → |
| RX 7700 XT | 12GB | Optimal | 36 tok/s | Calculer → |
| RTX 3070 Ti | 8GB | Optimal | 51 tok/s | Calculer → |
| RTX 4060 Ti | 8GB | Optimal | 38 tok/s | Calculer → |
| RTX 3070 | 8GB | Optimal | 40 tok/s | Calculer → |
| RX 6700 XT | 12GB | Optimal | 28 tok/s | Calculer → |
| M3 Pro | 18GB | Optimal | 32 tok/s | Calculer → |
| RTX 3060 Ti | 8GB | Optimal | 38 tok/s | Calculer → |
| RTX 2080 Ti | 11GB | Optimal | 39 tok/s | Calculer → |
| RTX 3060 | 12GB | Optimal | 35 tok/s | Calculer → |
| M2 Pro | 16GB | Optimal | 29 tok/s | Calculer → |
| RTX 4060 | 8GB | Optimal | 29 tok/s | Calculer → |
| Arc A770 16GB | 16GB | Optimal | 22 tok/s | Calculer → |
| M1 Pro | 16GB | Optimal | 24 tok/s | Calculer → |
| RX 7600 | 8GB | Optimal | 26 tok/s | Calculer → |
| RX 6600 XT | 8GB | Optimal | 25 tok/s | Calculer → |
| Arc A750 8GB | 8GB | Optimal | 19 tok/s | Calculer → |
| RX 6600 | 8GB | Optimal | 21 tok/s | Calculer → |
| RTX 3050 8GB | 8GB | Optimal | 19 tok/s | Calculer → |
| GTX 1660 Super | 6GB | Optimal | 25 tok/s | Calculer → |
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Un modèle léger comme Stable Diffusion XL fonctionne bien sur du matériel grand public à partir de 6 GB de VRAM. Idéal au quotidien avec Ollama ou LM Studio. Utilisez le calculateur VRAM pour vérifier votre configuration.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Stable Diffusion XL en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie image avec des besoins VRAM comparables.
8B paramètres • 10GB VRAM
Stability AI • Stability AI Community
2B paramètres • 3GB VRAM
Stability AI • Stability AI Community
2B paramètres • 5GB VRAM
Stability AI • Stability AI Community
12B paramètres • 12GB VRAM
Black Forest Labs • FLUX.1-dev Non-Commercial
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement