Tool verifizieren
vLLM logo

vLLM

Eine schnelle und effiziente Bibliothek für LLM Inferenz.

github.com
Lädt Bewertungen...
Teile vLLM mit deinen Freunden:

Über vLLM

vLLM ist eine leistungsstarke und benutzerfreundliche Bibliothek für LLM-Inferenz und -Bereitstellung. Ursprünglich im Sky Computing Lab der UC Berkeley entwickelt, hat sich vLLM zu einem gemeinschaftsgetriebenen Projekt mit Beiträgen aus Wissenschaft und Industrie entwickelt. Es bietet hohe Durchsatzraten und effizientes Speichermanagement für verschiedene LLMs. Mit nahtloser Integration von Hugging Face-Modellen und Unterstützung für verschiedene Hardwareplattformen wird vLLM als flexibel und benutzerfreundlich angesehen. Mehr Informationen finden Sie in unserer Dokumentation.

Loading...Loading...
Loading...

    Wir verwenden Cookies

    Wir verwenden Cookies, um sicherzustellen, dass du die bestmögliche Erfahrung auf unserer Website erhältst. Weitere Informationen darüber, wie wir Cookies verwenden, findest du in unserer Cookie-Richtlinie.

    Durch Klicken auf Akzeptieren stimmst du unserer Verwendung von Cookies zu.
    Erfahre mehr.