Mixtral 8x22B

Open Source
Mistral Vydaný 17. apríla 2024

Mixtral 8x22B je open-source model od Mistral AI založený na architektúre Mixture of Experts (MoE) s celkovým počtom 176 miliárd parametrov, z ktorých je pri každom dotaze aktívnych iba 39 miliárd. Táto architektúra umožňuje výrazne efektívnejšie spracovanie pri zachovaní vysokého výkonu. Model vyniká v programovaní, matematike a viacjazyčných úlohách. Je dostupný pod licenciou Apache 2.0, čo umožňuje neobmedzené komerčné použitie vrátane úprav a redistribúcie.

Kontextové okno
66k tokenov
Max výstup
4k tokenov
Cena vstup
$2.00 / 1M tokenov
Cena výstup
$6.00 / 1M tokenov

Schopnosti

Text
Generovanie a spracovanie textu
Kód
Generovanie a analýza kódu
Funkcie
Volanie externých funkcií a nástrojov
JSON
Štruktúrovaný výstup v JSON formáte

Benchmarky

MMLU 77.8
HumanEval 75
MATH 41

Technické detaily

Poskytovateľ mistral
API identifikátor open-mixtral-8x22b
Kontextové okno 65 536 tokenov
Max výstupných tokenov 4 096
Multimodálny Nie
Licencia Apache 2.0

Odkazy

Ďalšie modely od mistral