LLaMA ist eine Sammlung von Grundmodellen für Sprache mit bis zu 65B Parametern. Diese Modelle werden auf Milliarden von Tokens trainiert und übertreffen die Leistung von GPT-3 auf den meisten Benchmarks. Die Veröffentlichung unterstützt die Forschungsgemeinschaft mit frei verfügbaren Modellen und Lieferungen.
Loading...Loading...
Loading...
We use cookies
We use cookies to ensure you get the best experience on our website. For more information on how we use cookies, please see our cookie policy.
By clicking accept, you agree to our use of cookies. Learn more.