RTX 5090
Points forts
- Exécute Yi 1.5 34B en Q4 natif
- 32 GB VRAM — marge suffisante
10 GPUs grand public peuvent exécuter Yi 1.5 34B en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU haut de gamme (24 GB VRAM)
RX 7900 XT
Fonctionne en Q4 — utilisable avec un peu d’attente
M4 Max 48GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Vérifiez si votre GPU peut exécuter Yi 1.5 34B →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 68 GB | 68 GB | Maximum |
| Q8 (haute qualité) | 34 GB | 34 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 20 GB | 20 GB | Recommandée |
| Q2 (minimum) | 10 GB | 10 GB | Perte de qualité |
| Développeur | 01.AI |
| Paramètres | 34B |
| Fenêtre de contexte | 4,096 tokens |
| Licence | Apache-2.0 |
| Cas d’usage | chat, coding, reasoning, analysis |
| Sortie | 2024-05 |
Installer avec Ollama
ollama run yi:34b Hugging Face
01-ai/Yi-1.5-34B-Chat Yi 1.5 34B nécessite <strong class="text-primary-container">20 GB de VRAM</strong> en Q4. 10 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou 18 GB, la latence d’offload augmente fortement.
10 Q4 natif · 19 offload
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Yi 1.5 34B nécessite un GPU haut de gamme comme la RTX 4090 ou un Mac avec M2 Ultra (ou mieux). La version Q4 demande 20 GB de VRAM. Consultez le calculateur VRAM pour vos options.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Yi 1.5 34B en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie chat avec des besoins VRAM comparables.
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement