Assistant IA local personnel
Utilisateurs qui veulent la confidentialité et éviter les abonnements cloud
99 modèles avec exigences VRAM exactes en FP16, Q8, Q4 et Q2. Choisissez un modèle et découvrez quel GPU peut l’exécuter et avec quelle qualité.
Llama 3.1 8B Q4 est le meilleur point de départ : il fonctionne sur tout GPU avec 6 GB+ de VRAM. Avec 12 GB+, passez à Mistral 7B ou Llama 3.1 13B.
Voir Llama 3.1 8BGuidage par intention :Ces parcours relient votre intention à une cible VRAM minimale, avec un modèle et un GPU recommandés avant d’ouvrir le catalogue complet.
Utilisateurs qui veulent la confidentialité et éviter les abonnements cloud
Journalistes, chercheurs et professionnels de santé
Créateurs et artistes numériques
LLM généralistes pour la conversation et le raisonnement complexe
Modèles spécialisés pour écrire, relire et expliquer du code
Modèles qui traitent image et texte ensemble
Modèles de diffusion pour générer et modifier des images en local
Modèles de transcription et de traduction