Saltar al contenido principal
Motor local listo

RTX 4090

81 modelos de IA caben en 24 GB de VRAM en Q4 nativo. 7 más funcionan con offloading en CPU. Benchmarks reales más abajo.

81 Modelos compatibles
7 con offloading
24GB GDDR6X
450W TDP
Javier Morales
Javier Morales Especialista en Hardware de IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodología →

RTX 4090

Contexto de ejecución

MARCA NVIDIA
ANCHO DE BANDA 1008 GB/s
FP16 TFLOPS 82.6
AI SCORE 100 / 140
RANGO DE PRECIO Flagship
PVP LANZAMIENTO $1,599
AI SCORE (RELATIVE)
100 /140
Entrada Valor Media Alta Flagship
PVP lanzamiento: $1,599 El precio actual varía en Amazon

Consultar oferta actual

Enlace de afiliado de Amazon para RTX 4090

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Prime

Especificaciones completas

NVIDIA · 2022-10

VRAM 24 GB GDDR6X
Ancho de banda 1008 GB/s
FP16 TFLOPS 82.6
AI Score 100 / 140
CUDA Cores 16,384
Tensor Cores 512
TDP 450 W
PCIe Gen 4
Slots 3
Power Connector 16-pin
Rango de precio Flagship
Lanzamiento 2022-10

Benchmarks de IA

Mediciones reales de inferencia — llama.cpp Q4_K_M

Tarea Resultado
Llama 1B Q4 400 tok/s
Llama 3B Q4 200 tok/s
Llama 7B Q4 95 tok/s
Llama 13B Q4 47 tok/s
Llama 30B Q4 24 tok/s
Llama 70B Q4 Offload o multi-GPU
Stable Diffusion 512px 2.1s / img
Whisper Large RTF 0.3x

RTF < 1.0 = más rápido que tiempo real. En Stable Diffusion y Whisper cuanto menor, mejor; en tokens/s cuanto mayor, mejor.

Comparar RTX 4090 con otra GPU

¿Vale la pena el upgrade? Compara specs y benchmarks reales lado a lado.

Abrir comparador →
Comparaciones rápidas: vs M4 Ultra · vs RTX 5080

Modelos de IA compatibles — RTX 4090

81 modelos se ejecutan completos en VRAM · 7 con offloading en CPU

Ver los 81 modelos compatibles →

También funciona con offloading en CPU (7)

RTX 4090 · Amazon

Los precios de las GPU cambian con frecuencia entre tiendas. Consulta la oferta actual antes de comprar.

Consultar oferta actual

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

RTX 4090 para Inteligencia Artificial Local

La RTX 4090 con 24GB de GDDR6X es una GPU de alto rendimiento para IA local. Puede ejecutar modelos de 7B, 13B y hasta 70B parámetros en cuantización Q2, cubriendo la mayoría de los casos de uso prácticos: asistentes de chat, generación de código, análisis de texto y generación de imágenes con Stable Diffusion.

En benchmarks reales, la RTX 4090 alcanza 95 tokens/segundo en Llama 7B Q4 — velocidad suficiente para conversación fluida en tiempo real. Los modelos de 13B como Phi-4 o Qwen2.5 14B corren cómodamente en Q4, y modelos 70B son accesibles via Q2 con 7 opciones.

La relación rendimiento-precio de la RTX 4090 la hace una de las mejores opciones para usuarios técnicos que quieren IA local seria. Usa la calculadora de VRAM para ver exactamente qué cuantización necesita cada modelo, o consulta nuestra guía para elegir GPU.

Planifica tu build completa de IA

RTX 4090 · 24 GB VRAM — configura PSU, RAM, almacenamiento y revisa modelos compatibles.

Configura tu build →

¿No sabes qué modelo correr en tu RTX 4090?

La calculadora de VRAM te dice exactamente qué cuantización necesitas.

Abrir calculadora →

Consigue el mejor precio para RTX 4090

Abre Amazon con nuestro enlace afiliado y revisa disponibilidad, variantes y ofertas actuales.

Ver mejor precio →