Aller au contenu principal
Moteur local prêt

Llama 3.1 405B

Llama 3.1 405B fonctionne avec 2 GPUs via offloading CPU. Seuils VRAM précis et benchmarks ci-dessous.

0 GPUs compatibles
2 avec offloading
405B paramètres
131K contexte
Meilleur choix
M4 Ultra · 128 GB VRAM avec offloading

Prix et disponibilité peuvent changer · lien affilié

Javier Morales
Javier Morales Spécialiste matériel IA — 8 ans d’expérience
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →

Contexte d’exécution

ARCHITECTURE TRANSFORMER
CONTEXTE 131K TOKENS
QUANTIFICATION 4-BIT GGUF
FOURNISSEUR Meta
LICENCE llama-3.1-community
BESOIN VRAM
230 GB
4GB 8GB 12GB 16GB 24GB+
Décision matérielle

Ce modèle nécessite unGPU flagship (48 GB+ VRAM)

Minimum

M4 Ultra

Fonctionne en Q4 — utilisable avec un peu d’attente

128 GB VRAM offload
Voir config compatible
Équilibré

M3 Ultra

Meilleur équilibre valeur/performance au quotidien

192 GB VRAM offload
Voir config compatible
Optimal

M3 Ultra

Qualité maximale, inférence la plus rapide

192 GB VRAM offload
Voir config compatible

GPUs compatibles pour Llama 3.1 405B

Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.

M4 Ultra
128 GB VRAM · Offloading Amazon

M4 Ultra

0.0 (0 avis)

Points forts

  • Fonctionne via offload CPU
  • 128 GB VRAM — marge suffisante
M3 Ultra
192 GB VRAM · Offloading Amazon

M3 Ultra

0.0 (0 avis)

Points forts

  • Fonctionne via offload CPU
  • 192 GB VRAM — marge suffisante
Voir M3 Ultra sur Amazon →

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.

Configuration requise

VRAM GPU 230 GB GPU haut de gamme
RAM système 345 GB 64 GB ou plus
Stockage 230 GB Q4 · SSD recommandé
CPU Tout CPU moderne GPU requis

VRAM par quantification

Quantification VRAM nécessaire Espace disque Qualité
FP16 (qualité maximale) 810 GB 810 GB Maximum
Q8 (haute qualité) 405 GB 405 GB Quasi sans perte
Q4 (recommandé) Meilleur équilibre 230 GB 230 GB Recommandée
Q2 (minimum) 115 GB 115 GB Perte de qualité

Détails du modèle

Développeur Meta
Paramètres 405B
Fenêtre de contexte 131,072 tokens
Licence llama-3.1-community
Cas d’usage chat, coding, reasoning, analysis, research
Sortie 2024-07

Installer avec Ollama

ollama run llama3.1:405b

Hugging Face

meta-llama/Llama-3.1-405B-Instruct
Voir sur HF →
Exigences techniques

Votre GPU peut-il exécuter Llama 3.1 405B ?

Llama 3.1 405B nécessite <strong class="text-amber-400">230 GB de VRAM</strong> en Q4; aucune GPU grand public n’est entièrement compatible. 2 GPUs fonctionnent avec offloading CPU en Q2 (115 GB).

115GB Minimum critique
230GB Optimal Q4
405GB Haute qualité Q8
810GB Max FP16

Matrice de performance matérielle

0 Q4 natif · 2 offload

GPU VRAM Compatibilité Vitesse estimée Action
M4 Ultra 128GB Offload 45 tok/s Calculer →
M3 Ultra 192GB Offload 38 tok/s Calculer →

GPUs recommandés pour Llama 3.1 405B

Benchmarks réels
Sans avis sponsorisés
Sélection éditoriale
Basé sur les données

Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Llama 3.1 405B — Guide de compatibilité

Llama 3.1 405B avec 405B paramètres ne s’exécute pleinement qu’en configuration multi-GPU ou serveur. Envisagez des versions distillées si elles existent. Le calculateur VRAM peut vous aider à trouver des alternatives compatibles.

Matériel compatible

GPUs qui exécutent Llama 3.1 405B en Q4, triés par score de performance IA.

Benchmarks réels
Sans avis sponsorisés
Basé sur les données

Aucune GPU grand public n’a assez de VRAM pour ce modèle.

Envisagez des versions distillées ou une quantification Q2.

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Alternatives plus pratiques

Modèles similaires dans la catégorie chat avec des besoins VRAM comparables.

Vous ne savez pas quel GPU il vous faut pour Llama 3.1 405B ?

Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.

M4 Ultra

Voir disponibilité

Prix mis à jour quotidiennement