Verify Tool
llama.cpp logo

llama.cpp

LLM Inferenz in C/C++ ohne Abhängigkeiten.

github.com
Lädt Bewertungen...
Teile llama.cpp mit deinen Freunden:

Über llama.cpp

Das Ziel von llama.cpp ist die Ausführung von LLMs mit minimaler Einrichtung und herausragender Leistung auf verschiedenen Hardware. Es unterstützt mehrere Quantisierungsstufen und bietet eine native C/C++-Implementierung ohne Abhängigkeiten. Optimiert für Apple Silicon und mit Unterstützung für NVIDIA und AMD GPUs. Ideal für lokale sowie Cloud-Anwendungen.

Loading...Loading...
Loading...

    We use cookies

    We use cookies to ensure you get the best experience on our website. For more information on how we use cookies, please see our cookie policy.

    By clicking accept, you agree to our use of cookies.
    Learn more.