Create an account
Verify Tool
vLLM logo

vLLM

Eine schnelle und effiziente Bibliothek für LLM Inferenz.

github.com
Lädt Bewertungen...
Teile vLLM mit deinen Freunden:

Über vLLM

vLLM ist eine leistungsstarke und benutzerfreundliche Bibliothek für LLM-Inferenz und -Bereitstellung. Ursprünglich im Sky Computing Lab der UC Berkeley entwickelt, hat sich vLLM zu einem gemeinschaftsgetriebenen Projekt mit Beiträgen aus Wissenschaft und Industrie entwickelt. Es bietet hohe Durchsatzraten und effizientes Speichermanagement für verschiedene LLMs. Mit nahtloser Integration von Hugging Face-Modellen und Unterstützung für verschiedene Hardwareplattformen wird vLLM als flexibel und benutzerfreundlich angesehen. Mehr Informationen finden Sie in unserer Dokumentation.

Loading...Loading...
Loading...

    We use cookies

    We use cookies to ensure you get the best experience on our website. For more information on how we use cookies, please see our cookie policy.

    By clicking accept, you agree to our use of cookies.
    Learn more.