Tool verifizieren
llama.cpp logo

llama.cpp

LLM Inferenz in C/C++ ohne Abhängigkeiten.

github.com
Lädt Bewertungen...
Teile llama.cpp mit deinen Freunden:

Über llama.cpp

Das Ziel von llama.cpp ist die Ausführung von LLMs mit minimaler Einrichtung und herausragender Leistung auf verschiedenen Hardware. Es unterstützt mehrere Quantisierungsstufen und bietet eine native C/C++-Implementierung ohne Abhängigkeiten. Optimiert für Apple Silicon und mit Unterstützung für NVIDIA und AMD GPUs. Ideal für lokale sowie Cloud-Anwendungen.

Loading...Loading...
Loading...

    Wir verwenden Cookies

    Wir verwenden Cookies, um sicherzustellen, dass du die bestmögliche Erfahrung auf unserer Website erhältst. Weitere Informationen darüber, wie wir Cookies verwenden, findest du in unserer Cookie-Richtlinie.

    Durch Klicken auf Akzeptieren stimmst du unserer Verwendung von Cookies zu.
    Erfahre mehr.