RTX 5090
Ventajas
- Ejecuta Qwen2.5 1.5B Q4 nativo
- 32 GB VRAM — margen suficiente
40 GPUs de consumo pueden ejecutar Qwen2.5 1.5B en Q4 de forma nativa. Umbrales de VRAM y benchmarks precisos abajo.
Precios y disponibilidad pueden cambiar · enlace de afiliado
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · actualizado mensualmente · metodología →
Este modelo requiere unaGPU de entrada (8 GB VRAM)
GTX 1660 Super
Funciona en Q4 — usable, con algo de espera
RTX 4060 Ti 16GB
Mejor relación valor/rendimiento diario
Mejores opciones por compatibilidad, margen de VRAM y valor — precios y disponibilidad pueden cambiar.
Ventajas
Ventajas
Ventajas
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
CPU vs GPU para Qwen2.5 1.5B →
Calculadora VRAM — compatibilidad instantánea
RTX 5090
32 GB · Ejecuta Q4 nativo · Ver disponibilidad
*Los precios y la disponibilidad pueden cambiar. Algunos enlaces son de afiliado.
| Cuantización | VRAM necesaria | Espacio en disco | Calidad |
|---|---|---|---|
| FP16 (calidad máxima) | 3 GB | 3 GB | Máxima |
| Q8 (alta calidad) | 1.5 GB | 1.5 GB | Casi sin pérdida |
| Q4 (recomendado) Mejor equilibrio | 1 GB | 1 GB | Recomendada |
| Q2 (mínimo) | 0.5 GB | 0.5 GB | Pérdida de calidad |
| Desarrollador | Alibaba |
| Parámetros | 1.5B |
| Ventana de contexto | 131,072 tokens |
| Licencia | Apache-2.0 |
| Casos de uso | chat, edge, mobile |
| Lanzamiento | 2024-09 |
Instalar con Ollama
ollama run qwen2.5:1.5b Hugging Face
Qwen/Qwen2.5-1.5B-Instruct Qwen2.5 1.5B requiere <strong class="text-primary-container">1 GB de VRAM</strong> en Q4. 40 GPUs de consumo cumplen este umbral. Por debajo de 8 GB o -1 GB verás una latencia de offload notable.
40 Q4 nativo · 0 offload
| GPU | VRAM | Compatibilidad | Velocidad est. | Acción |
|---|---|---|---|---|
| RTX 5090 | 32GB | Óptimo | 350 tok/s | Calcular → |
| RTX 4090 | 24GB | Óptimo | 350 tok/s | Calcular → |
| M4 Ultra | 128GB | Óptimo | 350 tok/s | Calcular → |
| RTX 5080 | 16GB | Óptimo | 350 tok/s | Calcular → |
| M3 Ultra | 192GB | Óptimo | 342 tok/s | Calcular → |
| RTX 4080 Super | 16GB | Óptimo | 328 tok/s | Calcular → |
| RTX 5070 Ti | 16GB | Óptimo | 347 tok/s | Calcular → |
| RTX 3090 | 24GB | Óptimo | 349 tok/s | Calcular → |
| M4 Max 48GB | 48GB | Óptimo | 244 tok/s | Calcular → |
| RX 7900 XTX | 24GB | Óptimo | 350 tok/s | Calcular → |
| M4 Max 36GB | 36GB | Óptimo | 244 tok/s | Calcular → |
| RTX 4070 Ti Super | 16GB | Óptimo | 300 tok/s | Calcular → |
| RTX 3080 Ti | 12GB | Óptimo | 345 tok/s | Calcular → |
| RX 7900 XT | 20GB | Óptimo | 342 tok/s | Calcular → |
| RTX 5070 | 12GB | Óptimo | 300 tok/s | Calcular → |
| RTX 3080 | 10GB | Óptimo | 339 tok/s | Calcular → |
| M4 Pro | 24GB | Óptimo | 122 tok/s | Calcular → |
| RX 7800 XT | 16GB | Óptimo | 279 tok/s | Calcular → |
| RX 6800 XT | 16GB | Óptimo | 230 tok/s | Calcular → |
| RTX 4070 | 12GB | Óptimo | 225 tok/s | Calcular → |
| RTX 4060 Ti 16GB | 16GB | Óptimo | 128 tok/s | Calcular → |
| RX 7700 XT | 12GB | Óptimo | 193 tok/s | Calcular → |
| RTX 3070 Ti | 8GB | Óptimo | 272 tok/s | Calcular → |
| RTX 4060 Ti | 8GB | Óptimo | 128 tok/s | Calcular → |
| RTX 3070 | 8GB | Óptimo | 200 tok/s | Calcular → |
| RX 6700 XT | 12GB | Óptimo | 172 tok/s | Calcular → |
| M3 Pro | 18GB | Óptimo | 67 tok/s | Calcular → |
| RTX 3060 Ti | 8GB | Óptimo | 201 tok/s | Calcular → |
| RTX 2080 Ti | 11GB | Óptimo | 201 tok/s | Calcular → |
| RTX 3060 | 12GB | Óptimo | 161 tok/s | Calcular → |
| M2 Pro | 16GB | Óptimo | 89 tok/s | Calcular → |
| RTX 4060 | 8GB | Óptimo | 122 tok/s | Calcular → |
| Arc A770 16GB | 16GB | Óptimo | 100 tok/s | Calcular → |
| M1 Pro | 16GB | Óptimo | 89 tok/s | Calcular → |
| RX 7600 | 8GB | Óptimo | 129 tok/s | Calcular → |
| RX 6600 XT | 8GB | Óptimo | 122 tok/s | Calcular → |
| Arc A750 8GB | 8GB | Óptimo | 91 tok/s | Calcular → |
| RX 6600 | 8GB | Óptimo | 110 tok/s | Calcular → |
| RTX 3050 8GB | 8GB | Óptimo | 100 tok/s | Calcular → |
| GTX 1660 Super | 6GB | Óptimo | 150 tok/s | Calcular → |
Mejores opciones por compatibilidad, margen de VRAM y valor; precios y disponibilidad pueden cambiar.
RTX 5090
32 GB VRAM
Ver disponibilidad →
RTX 4090
24 GB VRAM
Ver disponibilidad →
M4 Ultra
128 GB VRAM
Ver disponibilidad →
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
Qwen2.5 1.5B es un modelo ligero que se ejecuta directamente en CPU, sin GPU dedicada. En un i7-13700K con llama.cpp Q4 alcanza 38 tokens/s, suficiente para chat en tiempo real. Con GPU obtienes hasta ~137 tok/s con 6 GB VRAM. Ideal para portátiles y equipos sin gráfica dedicada.
¿Qué GPU merece la pena? Especificaciones y benchmarks reales lado a lado.
GPUs que ejecutan Qwen2.5 1.5B en Q4, ordenadas por rendimiento en IA.
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
Modelos similares en la categoría chat con requisitos de VRAM comparables.
La calculadora de VRAM te dice exactamente qué cuantización soporta tu hardware.
RTX 5090
Los precios cambian a diario