RTX 3070
51 modèles IA tiennent dans 8 GB de VRAM en Q4 natif. 17 autres fonctionnent avec offloading CPU. Benchmarks réels ci-dessous.
llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · méthodologie →
Contexte d’exécution
Vérifier l'offre actuelle
Lien affilié Amazon pour RTX 3070
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Spécifications complètes
NVIDIA · 2020-10
| VRAM | 8 GB GDDR6 |
| Bande passante | 448 GB/s |
| FP16 TFLOPS | 20.3 |
| AI Score | 40 / 140 |
| CUDA Cores | 5,888 |
| Tensor Cores | 184 |
| TDP | 220 W |
| PCIe | Gen 4 |
| Slots | 2 |
| Power Connector | 2x 8-pin |
| Fourchette de prix | Bon rapport qualite-prix |
| Sortie | 2020-10 |
Benchmarks IA
Mesures réelles d’inférence — llama.cpp Q4_K_M
| Tâche | Résultat |
|---|---|
| Llama 1B Q4 | 235 tok/s |
| Llama 3B Q4 | 94 tok/s |
| Llama 7B Q4 | 34 tok/s |
| Llama 13B Q4 | VRAM N/D |
| Llama 30B Q4 | VRAM N/D |
| Llama 70B Q4 | Offloading ou multi-GPU |
| Stable Diffusion 512px | 5.5s / img |
| Whisper Large RTF | 0.65x |
RTF < 1.0 = plus rapide que le temps réel. Pour Stable Diffusion et Whisper, plus bas est meilleur ; pour les tokens/s, plus haut est meilleur.
Comparer RTX 3070 avec un autre GPU
Mise à niveau utile ? Comparez les specs et benchmarks réels côte à côte.
Ouvrir le comparateur →Modèles IA compatibles — RTX 3070
51 modèles fonctionne entièrement en VRAM · 17 avec offloading CPU
Whisper Large V3
Stable Diffusion 3.5 Medium
Stable Diffusion 3 Medium
Gemma 4 12B
Stable Diffusion XL
Qwen2.5 Coder 14B
Qwen3 14B
Gemma 3 12B
Voir les 51 modèles compatibles →
Fonctionne aussi avec offloading CPU (17)
- Flux.1 Dev 8 GB Q2
- Stable Diffusion 3.5 Large 8 GB Q2
- Gemma 4 27B 7.4 GB Q2 Comment installer →
- Gemma 2 27B 8 GB Q2 Comment installer →
- Mistral Small 3 7.2 GB Q2 Comment installer →
- Phi-4 4.2 GB Q2 Comment installer →
- Flux.1 Schnell 8 GB Q2
- Devstral Small 2 24B 6.6 GB Q2 Comment installer →
- DeepSeek R1 Distill 14B 4.2 GB Q2 Comment installer →
- Qwen3.5 27B 7.4 GB Q2 Comment installer →
- Magistral Small 24B 6.6 GB Q2 Comment installer →
- Qwen2.5 14B 4.2 GB Q2 Comment installer →
- DeepSeek Coder V2 5 GB Q2 Comment installer →
- Mistral Small 3.2 6.6 GB Q2 Comment installer →
- StarCoder 2 15B 4.5 GB Q2 Comment installer →
- Mistral Small 3.1 6.6 GB Q2 Comment installer →
- DeepSeek V2 Lite 5 GB Q2 Comment installer →
RTX 3070 · Amazon
Les prix des GPU changent souvent selon les vendeurs. Verifiez l offre actuelle avant achat.
Vérifier l'offre actuelleCertains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
RTX 3070 pour l’intelligence artificielle locale
RTX 3070 avec 8GB de GDDR6 est une option solide pour l'IA locale. Cette carte couvre les modèles populaires en quantification Q4 et permet d'aller plus loin selon la VRAM disponible.
En benchmarks réels, RTX 3070 atteint 34 tokens/seconde sur Llama 7B Q4. Vous pouvez aussi exécuter 51 modèles entièrement en VRAM, avec 17 modèles supplémentaires en offloading CPU.
Pour vérifier précisément la compatibilité de chaque modèle, utilisez le calculateur VRAM. Vous pouvez également consulter les guides de démarrage pour configurer votre environnement local.
Planifiez votre build IA complet
RTX 3070 · 8 GB VRAM — configurez PSU, RAM, stockage et vérifiez les modèles compatibles.
Articles liés
Vous ne savez pas quel modèle exécuter sur votre RTX 3070 ?
Le calculateur VRAM vous indique exactement quelle quantification utiliser.
Obtenez le meilleur prix pour RTX 3070
Ouvrez Amazon via notre lien affilié et vérifiez la disponibilité, les variantes et les offres actuelles.