Personal local AI assistant
Users who want privacy and want to skip cloud subscriptions
99 modelos con requisitos exactos de VRAM en FP16, Q8, Q4 y Q2. Elige cualquier modelo y descubre qué GPU puede ejecutarlo y con qué calidad.
Llama 3.1 8B Q4 es el mejor punto de entrada: funciona en GPUs de 6 GB+ VRAM. Si tienes 12 GB+, sube a Mistral 7B o Llama 3.1 13B.
Ver Llama 3.1 8BGuía por intención:Estas rutas conectan tu intención con una VRAM mínima, más un modelo y GPU recomendados antes de entrar al catálogo completo.
Users who want privacy and want to skip cloud subscriptions
Journalists, researchers, healthcare professionals
Creators and digital artists
LLMs de propósito general para conversación y razonamiento complejo
Modelos especializados para escribir, revisar y explicar código
Modelos que procesan imágenes y texto juntos
Modelos de difusión para generar y editar imágenes en local
Modelos de transcripción y traducción