Saltar al contenido principal
Motor local listo

Mixtral 8x7B

5 GPUs de consumo pueden ejecutar Mixtral 8x7B en Q4 de forma nativa. Umbrales de VRAM y benchmarks precisos abajo.

5 GPUs compatibles
16 con offloading
46.7B parámetros
33K contexto
Mejor opción
RTX 5090 · 32 GB VRAM Q4 nativo

Precios y disponibilidad pueden cambiar · enlace de afiliado

Javier Morales
Javier Morales Especialista en hardware IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · ROCm 6 · actualizado mensualmente · metodología →

Contexto de ejecución

ARQUITECTURA TRANSFORMER
CONTEXTO 33K TOKENS
CUANTIZACIÓN 4-BIT GGUF
PROVEEDOR Mistral AI
LICENCIA Apache-2.0
REQUISITO VRAM
26 GB
4GB 8GB 12GB 16GB 24GB+
Decisión de hardware

Este modelo requiere unaGPU tope de gama (48 GB+ VRAM)

Mínimo

RTX 5090

Funciona en Q4 — usable, con algo de espera

32 GB VRAM
Ver configuración compatible
Equilibrado

M4 Max 48GB

Mejor relación valor/rendimiento diario

48 GB VRAM
Ver configuración compatible
Óptimo

RTX 5090

Máxima calidad, inferencia más rápida

32 GB VRAM
Ver configuración compatible

GPUs compatibles para Mixtral 8x7B

Mejores opciones por compatibilidad, margen de VRAM y valor — precios y disponibilidad pueden cambiar.

RTX 5090
32 GB VRAM · Q4 nativo Amazon

RTX 5090

4.4 (234 reseñas)

Ventajas

  • Ejecuta Mixtral 8x7B Q4 nativo
  • 32 GB VRAM — margen suficiente
M4 Ultra
128 GB VRAM · Q4 nativo Amazon

M4 Ultra

0.0 (0 reseñas)

Ventajas

  • Ejecuta Mixtral 8x7B Q4 nativo
  • 128 GB VRAM — margen suficiente
M3 Ultra
192 GB VRAM · Q4 nativo Amazon

M3 Ultra

0.0 (0 reseñas)

Ventajas

  • Ejecuta Mixtral 8x7B Q4 nativo
  • 192 GB VRAM — margen suficiente
Ver M3 Ultra en Amazon →

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

*Los precios y la disponibilidad pueden cambiar. Algunos enlaces son de afiliado.

Requisitos del sistema

VRAM GPU 26 GB GPU gama alta
RAM del sistema 39 GB 64 GB o más
Almacenamiento 26 GB Q4 · SSD recomendado
CPU Cualquier CPU moderna GPU requerida

VRAM por cuantización

Cuantización VRAM necesaria Espacio en disco Calidad
FP16 (calidad máxima) 93 GB 93 GB Máxima
Q8 (alta calidad) 47 GB 47 GB Casi sin pérdida
Q4 (recomendado) Mejor equilibrio 26 GB 26 GB Recomendada
Q2 (mínimo) 14 GB 14 GB Pérdida de calidad

Detalles del modelo

Desarrollador Mistral AI
Parámetros 46.7B
Ventana de contexto 32,768 tokens
Licencia Apache-2.0
Casos de uso chat, coding, reasoning, analysis
Lanzamiento 2023-12

Instalar con Ollama

ollama run mixtral:8x7b

Hugging Face

mistralai/Mixtral-8x7B-Instruct-v0.1
Ver en HF →
Requisitos técnicos

¿Tu GPU puede ejecutar Mixtral 8x7B?

Mixtral 8x7B requiere <strong class="text-primary-container">26 GB de VRAM</strong> en Q4. 5 GPUs de consumo cumplen este umbral. Por debajo de 8 GB o 24 GB verás una latencia de offload notable.

14GB Mínimo crítico
26GB Óptimo Q4
47GB Alta calidad Q8
93GB Máximo FP16

Matriz de rendimiento de hardware

5 Q4 nativo · 16 offload

GPU VRAM Compatibilidad Velocidad est. Acción
RTX 5090 32GB Óptimo Calcular →
M4 Ultra 128GB Óptimo 33 tok/s Calcular →
M3 Ultra 192GB Óptimo 27 tok/s Calcular →
M4 Max 48GB 48GB Óptimo 16 tok/s Calcular →
M4 Max 36GB 36GB Óptimo Calcular →
RTX 4090 24GB Offload Calcular →
RTX 5080 16GB Offload Calcular →
RTX 4080 Super 16GB Offload Calcular →
RTX 5070 Ti 16GB Offload Calcular →
RTX 3090 24GB Offload Calcular →
RX 7900 XTX 24GB Offload Calcular →
RTX 4070 Ti Super 16GB Offload Calcular →
RX 7900 XT 20GB Offload Calcular →
M4 Pro 24GB Offload Calcular →
RX 7800 XT 16GB Offload Calcular →
RX 6800 XT 16GB Offload Calcular →
RTX 4060 Ti 16GB 16GB Offload Calcular →
M3 Pro 18GB Offload Calcular →
M2 Pro 16GB Offload Calcular →
Arc A770 16GB 16GB Offload Calcular →
M1 Pro 16GB Offload Calcular →

GPUs recomendadas para Mixtral 8x7B

Benchmarks Reales
Sin Reviews Pagadas
Selección Editorial
Basado en Datos

Mejores opciones por compatibilidad, margen de VRAM y valor; precios y disponibilidad pueden cambiar.

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Mixtral 8x7B — Guía de compatibilidad

Mixtral 8x7B requiere una GPU de gama alta como RTX 4090 o un Mac con M2 Ultra o superior. La versión Q4 necesita 26 GB de VRAM. Consulta la calculadora de VRAM para ver tus opciones.

Compara GPUs para Mixtral 8x7B

¿Qué GPU merece la pena? Especificaciones y benchmarks reales lado a lado.

Hardware compatible

GPUs que ejecutan Mixtral 8x7B en Q4, ordenadas por rendimiento en IA.

Benchmarks Reales
Sin Reviews Pagadas
Basado en Datos
RTX 5090
RTX 5090

NVIDIA · 32 GB VRAM

Q4 OK
> $1000
M4 Ultra

Apple · 128 GB VRAM

Q4 OK
33 tok/s > $1000
M3 Ultra

Apple · 192 GB VRAM

Q4 OK
27 tok/s > $1000
M4 Max 48GB

Apple · 48 GB VRAM

Q4 OK
16 tok/s > $1000
M4 Max 36GB

Apple · 36 GB VRAM

Q4 OK
> $1000

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Alternativas más prácticas

Modelos similares en la categoría chat con requisitos de VRAM comparables.

¿No sabes qué GPU necesitas para Mixtral 8x7B?

La calculadora de VRAM te dice exactamente qué cuantización soporta tu hardware.

RTX 5090

Ver disponibilidad

Los precios cambian a diario