Herramientas
de hardware para IA
Herramientas gratuitas para planificar, comparar y optimizar tu setup de IA local. Sin registro, sin descargas.
Resumen de catálogo en tiempo real
Las recomendaciones usan datos de modelos y GPUs actualizados, priorizando precisión técnica frente a marketing.
Estos son los tres umbrales reales de VRAM para IA local en 2026. Por debajo de 8 GB solo van modelos pequeños; por encima de 24 GB ya puedes mover cargas grandes con menos compromiso.
— Laboratorio de hardware de RunAIatHome — umbrales de VRAM validadosCalculadora de VRAM
Comprueba si tu GPU tiene suficiente VRAM para ejecutar cualquier modelo de IA. Introduce GPU y modelo para ver memoria necesaria, cuantización y rendimiento estimado.
Abrir herramientaComparador de GPUs
Compara GPUs lado a lado para cargas de IA. Revisa VRAM, ancho de banda, núcleos tensor, benchmarks y relación precio/rendimiento.
Abrir herramientaExplorador de modelos
Explora modelos populares y sus requisitos exactos de hardware. Filtra por categoría, tamaño y VRAM para encontrar el mejor modelo para tu GPU.
Abrir herramientaConfigurador de builds
Diseña un PC completo listo para IA. Selecciona componentes con validación de compatibilidad, cálculo de consumo y rendimiento estimado.
Abrir herramientaCalculadora de costes
Compara el coste total de ejecutar IA local frente a APIs cloud. Incluye hardware, electricidad y consumo para ver qué opción te ahorra dinero.
Abrir herramientaBuscador de GPU
Flujo "ya conozco la clase de modelo": elige el tipo de carga y obtén GPUs ordenadas por encaje, rendimiento y presupuesto.
Abrir herramientaQuiz: ¿Qué GPU necesito?
Responde 5 preguntas sobre uso, presupuesto y sistema operativo. Obtén una recomendación personalizada con enlace de compra directo.
Abrir herramientaCalculadora: Local vs Cloud
Calcula cuánto ahorras al mes ejecutando IA en tu GPU frente a pagar GPT-4, Claude o Gemini.
Abrir herramientaTabla de rendimiento
Clasifica GPUs por velocidad de inferencia real con modelos populares. Ve tokens por segundo en Llama, Mistral y Phi para elegir la GPU más rápida según tu presupuesto.
Abrir herramientaPlanificador de presupuesto
Planifica tu inversión en hardware de IA ajustada a tu presupuesto. Define cuánto quieres gastar y obtén una build optimizada para el rendimiento máximo.
Abrir herramientaPor qué RunAIatHome crea herramientas específicas para IA local
Ejecutar modelos en tu propio hardware exige decisiones técnicas concretas que no existen en la nube: VRAM real, offload a RAM y retorno de inversión.
Estas herramientas responden esas preguntas con datos reales, no con estimaciones vagas.
Cómo usar las herramientas en orden
- 1. Empieza con el Quiz de GPU si no sabes qué hardware necesitas.
- 2. Usa el GPU Finder si ya conoces la clase de modelo que quieres ejecutar.
- 3. Valida compatibilidad con la calculadora de VRAM antes de descargar un modelo.
- 4. Calcula ROI con la calculadora de costes para comparar local vs API.
Equipo mínimo recomendado para empezar
Si aún no tienes equipo, este es el resumen rápido:
- GPU: 8 GB VRAM mínimo para modelos 7B. 12–16 GB recomendado para probar 13B.
- RAM del sistema: 32 GB recomendado. Con 16 GB puede haber swapping.
- Almacenamiento: SSD NVMe, idealmente 1 TB o más.
- Software: Ollama, LM Studio o llama.cpp.