Saltar al contenido principal
Motor local listo

Llama 3.1 405B

Llama 3.1 405B funciona con 2 GPUs usando offloading en CPU. Umbrales de VRAM y benchmarks precisos abajo.

0 GPUs compatibles
2 con offloading
405B parámetros
131K contexto
Mejor opción
M4 Ultra · 128 GB VRAM con offloading

Precios y disponibilidad pueden cambiar · enlace de afiliado

Javier Morales
Javier Morales Especialista en hardware IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · ROCm 6 · actualizado mensualmente · metodología →

Contexto de ejecución

ARQUITECTURA TRANSFORMER
CONTEXTO 131K TOKENS
CUANTIZACIÓN 4-BIT GGUF
PROVEEDOR Meta
LICENCIA llama-3.1-community
REQUISITO VRAM
230 GB
4GB 8GB 12GB 16GB 24GB+
Decisión de hardware

Este modelo requiere unaGPU tope de gama (48 GB+ VRAM)

Mínimo

M4 Ultra

Funciona en Q4 — usable, con algo de espera

128 GB VRAM offloading
Ver configuración compatible
Equilibrado

M3 Ultra

Mejor relación valor/rendimiento diario

192 GB VRAM offloading
Ver configuración compatible
Óptimo

M3 Ultra

Máxima calidad, inferencia más rápida

192 GB VRAM offloading
Ver configuración compatible

GPUs compatibles para Llama 3.1 405B

Mejores opciones por compatibilidad, margen de VRAM y valor — precios y disponibilidad pueden cambiar.

M4 Ultra
128 GB VRAM · Offloading Amazon

M4 Ultra

0.0 (0 reseñas)

Ventajas

  • Funciona con offloading CPU
  • 128 GB VRAM — margen suficiente
M3 Ultra
192 GB VRAM · Offloading Amazon

M3 Ultra

0.0 (0 reseñas)

Ventajas

  • Funciona con offloading CPU
  • 192 GB VRAM — margen suficiente
Ver M3 Ultra en Amazon →

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

*Los precios y la disponibilidad pueden cambiar. Algunos enlaces son de afiliado.

Requisitos del sistema

VRAM GPU 230 GB GPU gama alta
RAM del sistema 345 GB 64 GB o más
Almacenamiento 230 GB Q4 · SSD recomendado
CPU Cualquier CPU moderna GPU requerida

VRAM por cuantización

Cuantización VRAM necesaria Espacio en disco Calidad
FP16 (calidad máxima) 810 GB 810 GB Máxima
Q8 (alta calidad) 405 GB 405 GB Casi sin pérdida
Q4 (recomendado) Mejor equilibrio 230 GB 230 GB Recomendada
Q2 (mínimo) 115 GB 115 GB Pérdida de calidad

Detalles del modelo

Desarrollador Meta
Parámetros 405B
Ventana de contexto 131,072 tokens
Licencia llama-3.1-community
Casos de uso chat, coding, reasoning, analysis, research
Lanzamiento 2024-07

Instalar con Ollama

ollama run llama3.1:405b

Hugging Face

meta-llama/Llama-3.1-405B-Instruct
Ver en HF →
Requisitos técnicos

¿Tu GPU puede ejecutar Llama 3.1 405B?

Llama 3.1 405B necesita <strong class="text-amber-400">230 GB de VRAM</strong> en Q4; ninguna GPU de consumo encaja por completo. 2 GPUs funcionan con offloading por CPU en Q2 (115 GB).

115GB Mínimo crítico
230GB Óptimo Q4
405GB Alta calidad Q8
810GB Máximo FP16

Matriz de rendimiento de hardware

0 Q4 nativo · 2 offload

GPU VRAM Compatibilidad Velocidad est. Acción
M4 Ultra 128GB Offload 45 tok/s Calcular →
M3 Ultra 192GB Offload 38 tok/s Calcular →

GPUs recomendadas para Llama 3.1 405B

Benchmarks Reales
Sin Reviews Pagadas
Selección Editorial
Basado en Datos

Mejores opciones por compatibilidad, margen de VRAM y valor; precios y disponibilidad pueden cambiar.

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Llama 3.1 405B — Guía de compatibilidad

Llama 3.1 405B con 405B parámetros solo se ejecuta completamente en configuraciones multi-GPU o de servidor. Considera versiones destiladas si existen. La calculadora de VRAM puede ayudarte a encontrar alternativas compatibles.

Hardware compatible

GPUs que ejecutan Llama 3.1 405B en Q4, ordenadas por rendimiento en IA.

Benchmarks Reales
Sin Reviews Pagadas
Basado en Datos

Ninguna GPU de consumo tiene VRAM suficiente para este modelo.

Considera versiones destiladas o cuantización Q2.

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Alternativas más prácticas

Modelos similares en la categoría chat con requisitos de VRAM comparables.

¿No sabes qué GPU necesitas para Llama 3.1 405B?

La calculadora de VRAM te dice exactamente qué cuantización soporta tu hardware.

M4 Ultra

Ver disponibilidad

Los precios cambian a diario