Por el equipo editorial de RunAIatHome. Probado con builds de IA local, sin estimaciones cuando tenemos medidas reales.
Hermes 3 en local: requisitos, instalación y guía completa 2026
El finetune de Nous Research sobre Llama 3.1 que convierte el modelo base en un agente útil: function-calling estructurado, roleplay sin rehúsos agresivos, y razonamiento en cadena. Hermes 3 local corre en hardware de consumidor con la misma huella que Llama 3.1 — pero se comporta muy distinto.
Precio de referencia: RTX 3060 12GB ~€269 · RTX 4070 Super ~€499 · RTX 4090 ~€1.799.
¿Qué hardware necesito para correr Hermes 3?
Hermes 3 8B corre en RTX 3060 12GB (~€269) en Q4, Hermes 3 70B necesita RTX 4090 24GB (~€1.799)
1. La respuesta rápida
Si buscas hermes 3 local y tienes prisa: el 8B corre en cualquier GPU con 6+ GB, el 70B necesita 24 GB como mínimo y el 405B es para clusters. Usa la calculadora de VRAM antes de descargar nada.
| Variante | VRAM Q4 | GPU recomendada | Precio GPU |
|---|---|---|---|
| Hermes 3 8B | 4.8 GB | RTX 3060 12GB · RTX 4070 Super 12GB | €269 – €499 |
| Hermes 3 70B | 40 GB | RTX 4090 24GB (con offloading) · 2× 3090 | €1.799+ |
| Hermes 3 405B | 230 GB | Solo clusters multi-GPU | N/A en casa |
€499
NVIDIA GeForce RTX 4070 Super 12GB
Ventajas
- 12 GB VRAM para Hermes 3 8B Q8 con holgura
- ~75 tok/s en Hermes 3 8B Q4
- Ada Lovelace — eficiencia top en su rango
Inconvenientes
- No alcanza para 70B en solo GPU
2. Qué es Hermes 3 y por qué no es solo otro Llama
Hermes 3 es la tercera generación de modelos de Nous Research. Es un finetune completo de Llama 3.1 con tres cambios clave: function-calling estructurado nativo, capacidades de agente con razonamiento en cadena, y alignment neutral sin los rehúsos de Llama-Instruct. Para la guía técnica completa con todos los benchmarks y comandos de instalación, ver la versión en inglés.
3. Instalación rápida con Ollama
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull hermes3:8b
ollama run hermes3:8b ¿Te resultó útil? Recibe guías como esta en tu correo cada semana.