M4 Max 36GB
83 modèles IA tiennent dans 36 GB de VRAM en Q4 natif. 9 autres fonctionnent avec offloading CPU. Benchmarks réels ci-dessous.
llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · méthodologie →
Contexte d’exécution
Vérifier l'offre actuelle
Lien affilié Amazon pour M4 Max 36GB
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Spécifications complètes
Apple · 2024-10
| VRAM | 36 GB Unified Memory |
| Bande passante | 546 GB/s |
| FP16 TFLOPS | 14.2 |
| AI Score | 68 / 140 |
| Tensor Cores | 16 |
| TDP | 45 W |
| Fourchette de prix | Integree |
| Sortie | 2024-10 |
Benchmarks IA
Mesures réelles d’inférence — llama.cpp Q4_K_M
| Tâche | Résultat |
|---|---|
| Llama 1B Q4 | 287 tok/s |
| Llama 3B Q4 | 115 tok/s |
| Llama 7B Q4 | 62 tok/s |
| Llama 13B Q4 | 25 tok/s |
| Llama 30B Q4 | 13 tok/s |
| Llama 70B Q4 | Offloading ou multi-GPU |
| Stable Diffusion 512px | 5s / img |
| Whisper Large RTF | 0.5x |
RTF < 1.0 = plus rapide que le temps réel. Pour Stable Diffusion et Whisper, plus bas est meilleur ; pour les tokens/s, plus haut est meilleur.
Comparer M4 Max 36GB avec un autre GPU
Mise à niveau utile ? Comparez les specs et benchmarks réels côte à côte.
Ouvrir le comparateur →Modèles IA compatibles — M4 Max 36GB
83 modèles fonctionne entièrement en VRAM · 9 avec offloading CPU
Flux.1 Dev
Whisper Large V3
Stable Diffusion 3.5 Large
FLUX.2 Dev
Qwen2.5-Coder 32B
DeepSeek R1 Distill 32B
Qwen2.5 32B
Stable Diffusion 3.5 Medium
Voir les 83 modèles compatibles →
Fonctionne aussi avec offloading CPU (9)
- Llama 3.3 70B 21 GB Q2 Comment installer →
- Qwen2.5 72B 21 GB Q2 Comment installer →
- Llama 3.1 70B 20 GB Q2 Comment installer →
- Command R+ 30 GB Q2 Comment installer →
- Qwen3-Coder-Next 80B-A3B 22 GB Q2 Comment installer →
- Mistral Small 4 32.7 GB Q2 Comment installer →
- Llama 3.2 90B Vision 27 GB Q2 Comment installer →
- Llama 4 Scout 30 GB Q2 Comment installer →
- Hermes 3 70B 20 GB Q2 Comment installer →
M4 Max 36GB · Amazon
Les prix des GPU changent souvent selon les vendeurs. Verifiez l offre actuelle avant achat.
Vérifier l'offre actuelleCertains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
M4 Max 36GB pour l’intelligence artificielle locale
M4 Max 36GB avec 36GB de Unified Memory est une option solide pour l'IA locale. Cette carte couvre les modèles populaires en quantification Q4 et permet d'aller plus loin selon la VRAM disponible.
En benchmarks réels, M4 Max 36GB atteint 62 tokens/seconde sur Llama 7B Q4. Vous pouvez aussi exécuter 83 modèles entièrement en VRAM, avec 9 modèles supplémentaires en offloading CPU.
Pour vérifier précisément la compatibilité de chaque modèle, utilisez le calculateur VRAM. Vous pouvez également consulter les guides de démarrage pour configurer votre environnement local.
Planifiez votre build IA complet
M4 Max 36GB · 36 GB VRAM — configurez PSU, RAM, stockage et vérifiez les modèles compatibles.
Articles liés
Vous ne savez pas quel modèle exécuter sur votre M4 Max 36GB ?
Le calculateur VRAM vous indique exactement quelle quantification utiliser.
Obtenez le meilleur prix pour M4 Max 36GB
Ouvrez Amazon via notre lien affilié et vérifiez la disponibilité, les variantes et les offres actuelles.