Das Ziel von llama.cpp ist die Ausführung von LLMs mit minimaler Einrichtung und herausragender Leistung auf verschiedenen Hardware. Es unterstützt mehrere Quantisierungsstufen und bietet eine native C/C++-Implementierung ohne Abhängigkeiten. Optimiert für Apple Silicon und mit Unterstützung für NVIDIA und AMD GPUs. Ideal für lokale sowie Cloud-Anwendungen.
Loading...Loading...
Loading...
We use cookies
We use cookies to ensure you get the best experience on our website. For more information on how we use cookies, please see our cookie policy.
By clicking accept, you agree to our use of cookies. Learn more.