Skip to main content

Que necesito para correr Llama en local

Para correr Llama 3.1 8B en local necesitas una GPU con al menos 8 GB de VRAM, 16 GB de RAM del sistema, y Ollama instalado. En 10 minutos puedes tener el modelo funcionando.

Aviso de afiliado: algunos enlaces son de Amazon Associates. Nuestras recomendaciones son independientes.

RTX 4060 Ti 16GB
Mid-range · Mejor opción para Llama Amazon Stable price

RTX 4060 Ti 16GB

4.5 (1,247 reviews)

Pros

  • 16 GB VRAM — corre Llama 13B Q4 completo
  • 55 tok/s con Llama 8B Q4
  • Arquitectura Ada — eficiencia energética moderna

Cons

  • Bus de memoria 128-bit vs 192-bit en RTX 3060

Nuestras mejores opciones para Llama

Setup recomendado 1: Entrada — RTX 3060

La RTX 3060 12GB es la mejor opcion de entrada para Llama. 12 GB de VRAM permiten correr Llama 3.1 8B a 30 tok/s en Q4. El setup mas popular para empezar con IA local.

Setup recomendado 2: Medio — RTX 4060 Ti 16GB

La RTX 4060 Ti 16GB corre Llama 13B Q4 completamente en VRAM y genera 55 tok/s con Llama 8B. La opcion ideal si quieres modelos de 13B sin limitaciones.

Setup recomendado 3: Alta gama — RTX 3090 24GB

La RTX 3090 24GB permite correr Llama 3.3 70B en Q2 (requiere ~17 GB). La opcion para usuarios que quieren los modelos mas grandes disponibles sin multi-GPU.

Guias relacionadas

Los precios y disponibilidad pueden cambiar. Enlaces de afiliado.

Entrada 12 GB VRAM

RTX 3060 12GB

Llama 8B Q4 a 30 tok/s — el setup de entrada para LLMs

Consultar disponibilidad →
Intermedia 16 GB VRAM

RTX 4060 Ti 16GB

Llama 13B Q4 completo en GPU, 55 tok/s con Llama 8B

Consultar disponibilidad →
Alta gama 24 GB VRAM

RTX 3090 24GB

Llama 70B Q2 en una sola GPU, 65 tok/s con Llama 8B

Consultar disponibilidad →