Saltar al contenido principal
Motor local listo

M4 Max 36GB

83 modelos de IA caben en 36 GB de VRAM en Q4 nativo. 9 más funcionan con offloading en CPU. Benchmarks reales más abajo.

83 Modelos compatibles
9 con offloading
36GB Unified Memory
45W TDP
Javier Morales
Javier Morales Especialista en Hardware de IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodología →

M4 Max 36GB

Contexto de ejecución

MARCA Apple
ANCHO DE BANDA 546 GB/s
FP16 TFLOPS 14.2
AI SCORE 68 / 140
RANGO DE PRECIO Integrada
PVP LANZAMIENTO $2,499
AI SCORE (RELATIVE)
68 /140
Entrada Valor Media Alta Flagship
PVP lanzamiento: $2,499 El precio actual varía en Amazon

Consultar oferta actual

Enlace de afiliado de Amazon para M4 Max 36GB

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Especificaciones completas

Apple · 2024-10

VRAM 36 GB Unified Memory
Ancho de banda 546 GB/s
FP16 TFLOPS 14.2
AI Score 68 / 140
Tensor Cores 16
TDP 45 W
Rango de precio Integrada
Lanzamiento 2024-10

Benchmarks de IA

Mediciones reales de inferencia — llama.cpp Q4_K_M

Tarea Resultado
Llama 1B Q4 287 tok/s
Llama 3B Q4 115 tok/s
Llama 7B Q4 62 tok/s
Llama 13B Q4 25 tok/s
Llama 30B Q4 13 tok/s
Llama 70B Q4 Offload o multi-GPU
Stable Diffusion 512px 5s / img
Whisper Large RTF 0.5x

RTF < 1.0 = más rápido que tiempo real. En Stable Diffusion y Whisper cuanto menor, mejor; en tokens/s cuanto mayor, mejor.

Comparar M4 Max 36GB con otra GPU

¿Vale la pena el upgrade? Compara specs y benchmarks reales lado a lado.

Abrir comparador →
Comparaciones rápidas: vs RX 7900 XTX · vs RTX 4070 Ti Super

Modelos de IA compatibles — M4 Max 36GB

83 modelos se ejecutan completos en VRAM · 9 con offloading en CPU

Ver los 83 modelos compatibles →

También funciona con offloading en CPU (9)

M4 Max 36GB · Amazon

Los precios de las GPU cambian con frecuencia entre tiendas. Consulta la oferta actual antes de comprar.

Consultar oferta actual

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

M4 Max 36GB para Inteligencia Artificial Local

La M4 Max 36GB con 36GB de Unified Memory es una GPU de alto rendimiento para IA local. Puede ejecutar modelos de 7B, 13B y hasta 70B parámetros en cuantización Q2, cubriendo la mayoría de los casos de uso prácticos: asistentes de chat, generación de código, análisis de texto y generación de imágenes con Stable Diffusion.

En benchmarks reales, la M4 Max 36GB alcanza 62 tokens/segundo en Llama 7B Q4 — velocidad suficiente para conversación fluida en tiempo real. Los modelos de 13B como Phi-4 o Qwen2.5 14B corren cómodamente en Q4, y modelos 70B son accesibles via Q2 con 9 opciones.

La relación rendimiento-precio de la M4 Max 36GB la hace una de las mejores opciones para usuarios técnicos que quieren IA local seria. Usa la calculadora de VRAM para ver exactamente qué cuantización necesita cada modelo, o consulta nuestra guía para elegir GPU.

Planifica tu build completa de IA

M4 Max 36GB · 36 GB VRAM — configura PSU, RAM, almacenamiento y revisa modelos compatibles.

Configura tu build →

¿No sabes qué modelo correr en tu M4 Max 36GB?

La calculadora de VRAM te dice exactamente qué cuantización necesitas.

Abrir calculadora →

Consigue el mejor precio para M4 Max 36GB

Abre Amazon con nuestro enlace afiliado y revisa disponibilidad, variantes y ofertas actuales.

Ver mejor precio →