Create an account
Verify Tool
vLLM logo

vLLM

Eine schnelle und effiziente Bibliothek für LLM Inferenz.

github.com
Lädt Bewertungen...
Teile vLLM mit deinen Freunden:

Über vLLM

vLLM ist eine leistungsstarke und benutzerfreundliche Bibliothek für LLM-Inferenz und -Bereitstellung. Ursprünglich im Sky Computing Lab der UC Berkeley entwickelt, hat sich vLLM zu einem gemeinschaftsgetriebenen Projekt mit Beiträgen aus Wissenschaft und Industrie entwickelt. Es bietet hohe Durchsatzraten und effizientes Speichermanagement für verschiedene LLMs. Mit nahtloser Integration von Hugging Face-Modellen und Unterstützung für verschiedene Hardwareplattformen wird vLLM als flexibel und benutzerfreundlich angesehen. Mehr Informationen finden Sie in unserer Dokumentation.

Alternativen aus der EU

NannyML logo
Eine Open-Source-Bibliothek für Datenwissenschaft.
Cognee logo
Ein KI-Speicher-Engine für bessere LLM-Ausgaben.
Hasty logo
Eine leistungsstarke Plattform für Datenannotation.
Nebius AI Studio Inference Service logo
Hosted Open-Source Modelle für effiziente Inferenz.

Ähnliche KI Tools

Friendli Inference logo
Der schnellste LLM-Inferenz-Engine auf dem Markt.
llama.cpp logo
LLM Inferenz in C/C++ ohne Abhängigkeiten.
GGML logo
Tensorbibliothek für maschinelles Lernen.

Private Kommentare sind nur für dich sichtbar


    We use cookies

    We use cookies to ensure you get the best experience on our website. For more information on how we use cookies, please see our cookie policy.

    By clicking accept, you agree to our use of cookies.
    Learn more.