Model Matchup v1.0
Comparar modelos
IA local
Comparar modelos IA head-to-head: VRAM requerida, quality score, GPU mínima recomendada. Elige el mejor modelo para tu hardware con datos reales, no specs de fabricante.
20
Comparativas
Q4 VRAM
Datos cuantizados
GPU mínima
Por cada par
Todas las comparativas modelo vs modelo
Llama 3.1 8B vs Phi-4
5 GB vs 8.4 GB Q4
Δ 3.4000000000000004 GB
Min 8.4 GB VRAM
Llama 3.1 70B vs DeepSeek R1 Distill 32B
40 GB vs 19.2 GB Q4
Δ 20.8 GB
Min 40 GB VRAM
Mistral 7B vs Gemma 3 12B
4.5 GB vs 7.2 GB Q4
Δ 2.7 GB
Min 7.2 GB VRAM
Qwen2.5-Coder 32B vs DeepSeek Coder V2
19.2 GB vs 9 GB Q4
Δ 10.2 GB
Min 19.2 GB VRAM
Llama 3.1 8B vs Mistral 7B
5 GB vs 4.5 GB Q4
Δ 0.5 GB
Min 5 GB VRAM
DeepSeek R1 Distill 8B vs Phi-4
4.8 GB vs 8.4 GB Q4
Δ 3.6000000000000005 GB
Min 8.4 GB VRAM
Llama 3.1 70B vs Qwen2.5-Coder 32B
40 GB vs 19.2 GB Q4
Δ 20.8 GB
Min 40 GB VRAM
Gemma 3 12B vs Mistral 7B
7.2 GB vs 4.5 GB Q4
Δ 2.7 GB
Min 7.2 GB VRAM
Phi-4 vs Gemma 3 12B
8.4 GB vs 7.2 GB Q4
Δ 1.2000000000000002 GB
Min 8.4 GB VRAM
DeepSeek R1 Distill 32B vs Llama 3.1 70B
19.2 GB vs 40 GB Q4
Δ 20.8 GB
Min 40 GB VRAM
Qwen2.5 7B vs Mistral 7B
4.5 GB vs 4.5 GB Q4
Min 4.5 GB VRAM
Gemma 2 9B vs Llama 3.1 8B
5.5 GB vs 5 GB Q4
Δ 0.5 GB
Min 5.5 GB VRAM
DeepSeek R1 Distill 14B vs Qwen2.5 14B
8.4 GB vs 8.4 GB Q4
Min 8.4 GB VRAM
Llama 3.3 70B vs Qwen2.5 72B
42 GB vs 41 GB Q4
Δ 1 GB
Min 42 GB VRAM
Qwen2.5-Coder 7B vs CodeLlama 7B
4.2 GB vs 4.5 GB Q4
Δ 0.2999999999999998 GB
Min 4.5 GB VRAM
Phi-4 vs Mistral Small 3
8.4 GB vs 14.4 GB Q4
Δ 6 GB
Min 14.4 GB VRAM
Gemma 3 12B vs Phi-4
7.2 GB vs 8.4 GB Q4
Δ 1.2000000000000002 GB
Min 8.4 GB VRAM
DeepSeek R1 Distill 8B vs Llama 3.1 8B
4.8 GB vs 5 GB Q4
Δ 0.20000000000000018 GB
Min 5 GB VRAM
Qwen2.5 32B vs DeepSeek R1 Distill 32B
19.2 GB vs 19.2 GB Q4
Min 19.2 GB VRAM
Gemma 2 27B vs Llama 3.1 70B
15 GB vs 40 GB Q4
Δ 25 GB
Min 40 GB VRAM