Aller au contenu principal
Moteur local prêt

M1 Pro

68 modèles IA tiennent dans 16 GB de VRAM en Q4 natif. 15 autres fonctionnent avec offloading CPU. Benchmarks réels ci-dessous.

68 Modèles compatibles
15 avec offloading
16GB Unified Memory
30W TDP
Javier Morales
Javier Morales Spécialiste matériel IA — 8 ans d’expérience
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · méthodologie →

M1 Pro

Contexte d’exécution

MARQUE Apple
BANDE PASSANTE 200 GB/s
FP16 TFLOPS 5.2
AI SCORE 25 / 140
FOURCHETTE PRIX Integree
AI SCORE (RELATIVE)
25 /140
Entrée Valeur Milieu Haut Flagship

Vérifier l'offre actuelle

Lien affilié Amazon pour M1 Pro

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Spécifications complètes

Apple · 2021-10

VRAM 16 GB Unified Memory
Bande passante 200 GB/s
FP16 TFLOPS 5.2
AI Score 25 / 140
Tensor Cores 16
TDP 30 W
Fourchette de prix Integree
Sortie 2021-10

Benchmarks IA

Mesures réelles d’inférence — llama.cpp Q4_K_M

Tâche Résultat
Llama 1B Q4 105 tok/s
Llama 3B Q4 42 tok/s
Llama 7B Q4 22 tok/s
Llama 13B Q4 9 tok/s
Llama 30B Q4 VRAM N/D
Llama 70B Q4 Offloading ou multi-GPU
Stable Diffusion 512px 15s / img
Whisper Large RTF 1.5x

RTF < 1.0 = plus rapide que le temps réel. Pour Stable Diffusion et Whisper, plus bas est meilleur ; pour les tokens/s, plus haut est meilleur.

Comparer M1 Pro avec un autre GPU

Mise à niveau utile ? Comparez les specs et benchmarks réels côte à côte.

Ouvrir le comparateur →
Comparaisons rapides : vs RX 7600 · vs RX 6600 XT

Modèles IA compatibles — M1 Pro

68 modèles fonctionne entièrement en VRAM · 15 avec offloading CPU

Voir les 68 modèles compatibles →

Fonctionne aussi avec offloading CPU (15)

M1 Pro · Amazon

Les prix des GPU changent souvent selon les vendeurs. Verifiez l offre actuelle avant achat.

Vérifier l'offre actuelle

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

M1 Pro pour l’intelligence artificielle locale

M1 Pro avec 16GB de Unified Memory est une option solide pour l'IA locale. Cette carte couvre les modèles populaires en quantification Q4 et permet d'aller plus loin selon la VRAM disponible.

En benchmarks réels, M1 Pro atteint 22 tokens/seconde sur Llama 7B Q4. Vous pouvez aussi exécuter 68 modèles entièrement en VRAM, avec 15 modèles supplémentaires en offloading CPU.

Pour vérifier précisément la compatibilité de chaque modèle, utilisez le calculateur VRAM. Vous pouvez également consulter les guides de démarrage pour configurer votre environnement local.

Planifiez votre build IA complet

M1 Pro · 16 GB VRAM — configurez PSU, RAM, stockage et vérifiez les modèles compatibles.

Configurer votre build →

Vous ne savez pas quel modèle exécuter sur votre M1 Pro ?

Le calculateur VRAM vous indique exactement quelle quantification utiliser.

Ouvrir le calculateur →

Obtenez le meilleur prix pour M1 Pro

Ouvrez Amazon via notre lien affilié et vérifiez la disponibilité, les variantes et les offres actuelles.

Voir le meilleur prix →