M4 Max 36GB
83 modelli IA entrano in 36 GB di VRAM in Q4 nativo. 9 altri funzionano con offloading CPU. Benchmark reali qui sotto.
llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodologia →
Contesto di esecuzione
Controlla l'offerta attuale
Link affiliato Amazon per M4 Max 36GB
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Specifiche complete
Apple · 2024-10
| VRAM | 36 GB Unified Memory |
| Banda | 546 GB/s |
| FP16 TFLOPS | 14.2 |
| AI Score | 68 / 140 |
| Tensor Cores | 16 |
| TDP | 45 W |
| Fascia di prezzo | Integrata |
| Rilascio | 2024-10 |
Benchmark IA
Misurazioni reali di inferenza — llama.cpp Q4_K_M
| Attivita | Risultato |
|---|---|
| Llama 1B Q4 | 287 tok/s |
| Llama 3B Q4 | 115 tok/s |
| Llama 7B Q4 | 62 tok/s |
| Llama 13B Q4 | 25 tok/s |
| Llama 30B Q4 | 13 tok/s |
| Llama 70B Q4 | Offload o multi-GPU |
| Stable Diffusion 512px | 5s / img |
| Whisper Large RTF | 0.5x |
RTF < 1.0 = piu veloce del tempo reale. Per Stable Diffusion e Whisper, piu basso e meglio; per tokens/s, piu alto e meglio.
Confronta M4 Max 36GB con un altra GPU
Vale la pena fare l upgrade? Confronta specifiche e benchmark reali fianco a fianco.
Apri comparatore →Modelli IA compatibili — M4 Max 36GB
83 modelli entrano interamente in VRAM · 9 con offloading CPU
Flux.1 Dev
Whisper Large V3
Stable Diffusion 3.5 Large
FLUX.2 Dev
Qwen2.5-Coder 32B
DeepSeek R1 Distill 32B
Qwen2.5 32B
Stable Diffusion 3.5 Medium
Vedi tutti i 83 modelli compatibili →
Funziona anche con offloading CPU (9)
- Llama 3.3 70B 21 GB Q2 Come installare →
- Qwen2.5 72B 21 GB Q2 Come installare →
- Llama 3.1 70B 20 GB Q2 Come installare →
- Command R+ 30 GB Q2 Come installare →
- Qwen3-Coder-Next 80B-A3B 22 GB Q2 Come installare →
- Mistral Small 4 32.7 GB Q2 Come installare →
- Llama 3.2 90B Vision 27 GB Q2 Come installare →
- Llama 4 Scout 30 GB Q2 Come installare →
- Hermes 3 70B 20 GB Q2 Come installare →
M4 Max 36GB · Amazon
I prezzi delle GPU cambiano spesso tra i rivenditori. Controlla l offerta attuale prima di acquistare.
Controlla l'offerta attualeAlcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
M4 Max 36GB per IA locale
M4 Max 36GB con 36GB di Unified Memory e un'opzione solida per IA locale. Questa GPU copre i modelli piu usati in quantizzazione Q4 e permette carichi piu grandi in base alla VRAM disponibile.
Nei benchmark reali, M4 Max 36GB raggiunge 62 token/secondo su Llama 7B Q4. Puoi eseguire 83 modelli interamente in VRAM, con altri 9 modelli in offloading CPU.
Per verificare in dettaglio la compatibilita di ogni modello, usa il calcolatore VRAM. Puoi anche consultare le guide introduttive per configurare il tuo ambiente locale.
Pianifica la tua build IA completa
M4 Max 36GB · 36 GB VRAM — configura PSU, RAM, storage e verifica i modelli compatibili.
Articoli correlati
Non sai quale modello eseguire sulla tua M4 Max 36GB?
Il calcolatore VRAM ti dice esattamente quale quantizzazione ti serve.
Ottieni il miglior prezzo per M4 Max 36GB
Open Amazon with our affiliate link and check availability, variants, and current deals.