Tool verifizieren
ExLlama logo

ExLlama

Ein speichereffizientes Rewrite der Llama-Implementierung.

github.com
Lädt Bewertungen...
Teile ExLlama mit deinen Freunden:

Über ExLlama

ExLlama ist eine speichereffiziente Implementierung von Llama, optimiert für quantisierte Gewichte. Es wurde entwickelt, um auf modernen GPUs schnell und speichereffizient zu arbeiten. Die Projektfortschritte sind vielversprechend, obwohl es sich noch im Entwicklungsstadium befindet. Die Anforderungen umfassen eine NVIDIA GPU der 30er Serie oder neuere Modelle. Die Nutzung ist über Docker oder eine einfache Weboberfläche möglich.

Loading...Loading...
Loading...

    Wir verwenden Cookies

    Wir verwenden Cookies, um sicherzustellen, dass du die bestmögliche Erfahrung auf unserer Website erhältst. Weitere Informationen darüber, wie wir Cookies verwenden, findest du in unserer Cookie-Richtlinie.

    Durch Klicken auf Akzeptieren stimmst du unserer Verwendung von Cookies zu.
    Erfahre mehr.