Persoenlicher lokaler KI-Assistent
Fuer alle, die Datenschutz wollen und Cloud-Abos vermeiden moechten
99 Modelle mit exakten VRAM-Anforderungen in FP16, Q8, Q4 und Q2. Waehle ein Modell und finde heraus, welche GPU es mit welcher Qualitaet ausfuehren kann.
Llama 3.1 8B Q4 ist der beste Einstieg und laeuft auf GPUs mit 6 GB+ VRAM. Mit 12 GB+ kannst du auf Mistral 7B oder Llama 3.1 13B wechseln.
Llama 3.1 8B ansehenAbsichtsbasierte Navigation:Diese Routen verbinden deine Absicht mit einem VRAM-Mindestziel plus empfohlenem Modell und GPU, bevor du den gesamten Modellkatalog oeffnest.
Fuer alle, die Datenschutz wollen und Cloud-Abos vermeiden moechten
Journalisten, Forscher und Fachanwender
Creator und Digital-Kuenstler
Allgemeine LLMs fuer Konversation und komplexes Schlussfolgern
Spezialisierte Modelle zum Schreiben, Pruefen und Erklaeren von Code
Modelle, die Bild und Text gemeinsam verarbeiten
Diffusionsmodelle zum lokalen Erzeugen und Bearbeiten von Bildern
Modelle fuer Transkription und Uebersetzung