RTX 5090
Points forts
- Exécute Qwen3 1.7B en Q4 natif
- 32 GB VRAM — marge suffisante
40 GPUs grand public peuvent exécuter Qwen3 1.7B en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU d’entrée (8 GB VRAM)
GTX 1660 Super
Fonctionne en Q4 — utilisable avec un peu d’attente
RTX 4060 Ti 16GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
CPU vs GPU pour Qwen3 1.7B →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 3.7 GB | 3.4 GB | Maximum |
| Q8 (haute qualité) | 1.9 GB | 1.7 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 0.9 GB | 0.9 GB | Recommandée |
| Q2 (minimum) | 0.5 GB | 0.4 GB | Perte de qualité |
| Développeur | Alibaba |
| Paramètres | 1.7B |
| Fenêtre de contexte | 131,072 tokens |
| Licence | Apache 2.0 |
| Cas d’usage | chat, reasoning |
| Sortie | 2025-04 |
Installer avec Ollama
ollama run qwen3:1.7b Hugging Face
Qwen/Qwen3-1.7B Qwen3 1.7B nécessite <strong class="text-primary-container">0.9 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou -1.1 GB, la latence d’offload augmente fortement.
40 Q4 natif · 0 offload
| GPU | VRAM | Compatibilité | Vitesse estimée | Action |
|---|---|---|---|---|
| RTX 5090 | 32GB | Optimal | 330 tok/s | Calculer → |
| RTX 4090 | 24GB | Optimal | 330 tok/s | Calculer → |
| M4 Ultra | 128GB | Optimal | 330 tok/s | Calculer → |
| RTX 5080 | 16GB | Optimal | 330 tok/s | Calculer → |
| M3 Ultra | 192GB | Optimal | 319 tok/s | Calculer → |
| RTX 4080 Super | 16GB | Optimal | 305 tok/s | Calculer → |
| RTX 5070 Ti | 16GB | Optimal | 326 tok/s | Calculer → |
| RTX 3090 | 24GB | Optimal | 329 tok/s | Calculer → |
| M4 Max 48GB | 48GB | Optimal | 227 tok/s | Calculer → |
| RX 7900 XTX | 24GB | Optimal | 330 tok/s | Calculer → |
| M4 Max 36GB | 36GB | Optimal | 227 tok/s | Calculer → |
| RTX 4070 Ti Super | 16GB | Optimal | 279 tok/s | Calculer → |
| RTX 3080 Ti | 12GB | Optimal | 323 tok/s | Calculer → |
| RX 7900 XT | 20GB | Optimal | 319 tok/s | Calculer → |
| RTX 5070 | 12GB | Optimal | 279 tok/s | Calculer → |
| RTX 3080 | 10GB | Optimal | 315 tok/s | Calculer → |
| M4 Pro | 24GB | Optimal | 113 tok/s | Calculer → |
| RX 7800 XT | 16GB | Optimal | 259 tok/s | Calculer → |
| RX 6800 XT | 16GB | Optimal | 213 tok/s | Calculer → |
| RTX 4070 | 12GB | Optimal | 209 tok/s | Calculer → |
| RTX 4060 Ti 16GB | 16GB | Optimal | 119 tok/s | Calculer → |
| RX 7700 XT | 12GB | Optimal | 179 tok/s | Calculer → |
| RTX 3070 Ti | 8GB | Optimal | 253 tok/s | Calculer → |
| RTX 4060 Ti | 8GB | Optimal | 119 tok/s | Calculer → |
| RTX 3070 | 8GB | Optimal | 186 tok/s | Calculer → |
| RX 6700 XT | 12GB | Optimal | 160 tok/s | Calculer → |
| M3 Pro | 18GB | Optimal | 63 tok/s | Calculer → |
| RTX 3060 Ti | 8GB | Optimal | 186 tok/s | Calculer → |
| RTX 2080 Ti | 11GB | Optimal | 186 tok/s | Calculer → |
| RTX 3060 | 12GB | Optimal | 149 tok/s | Calculer → |
| M2 Pro | 16GB | Optimal | 83 tok/s | Calculer → |
| RTX 4060 | 8GB | Optimal | 113 tok/s | Calculer → |
| Arc A770 16GB | 16GB | Optimal | 93 tok/s | Calculer → |
| M1 Pro | 16GB | Optimal | 83 tok/s | Calculer → |
| RX 7600 | 8GB | Optimal | 120 tok/s | Calculer → |
| RX 6600 XT | 8GB | Optimal | 113 tok/s | Calculer → |
| Arc A750 8GB | 8GB | Optimal | 85 tok/s | Calculer → |
| RX 6600 | 8GB | Optimal | 102 tok/s | Calculer → |
| RTX 3050 8GB | 8GB | Optimal | 93 tok/s | Calculer → |
| GTX 1660 Super | 6GB | Optimal | 139 tok/s | Calculer → |
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Qwen3 1.7B est un modèle léger qui s’exécute directement sur CPU, sans GPU dédié. Sur un i7-13700K avec llama.cpp Q4, il atteint 35 tokens/s, suffisant pour du chat en temps réel. Avec un GPU, vous obtenez jusqu’à ~126 tok/s avec 6 GB de VRAM. Idéal pour les laptops et PC sans carte graphique dédiée.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Qwen3 1.7B en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie chat avec des besoins VRAM comparables.
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement