Mixtral 8x22B
Open SourceMixtral 8x22B je open-source model od Mistral AI založený na architektúre Mixture of Experts (MoE) s celkovým počtom 176 miliárd parametrov, z ktorých je pri každom dotaze aktívnych iba 39 miliárd. Táto architektúra umožňuje výrazne efektívnejšie spracovanie pri zachovaní vysokého výkonu. Model vyniká v programovaní, matematike a viacjazyčných úlohách. Je dostupný pod licenciou Apache 2.0, čo umožňuje neobmedzené komerčné použitie vrátane úprav a redistribúcie.
Schopnosti
Benchmarky
Technické detaily
| Poskytovateľ | mistral |
| API identifikátor | open-mixtral-8x22b |
| Kontextové okno | 65 536 tokenov |
| Max výstupných tokenov | 4 096 |
| Multimodálny | Nie |
| Licencia | Apache 2.0 |
Odkazy
Ďalšie modely od mistral
Mistral Large 2
Mistral Large 2 je najvýkonnejší komerčný model od francúzskej spoločnosti Mistral AI so 123 miliardami parametrov. Vyniká v komplexnom uvažovaní, programovaní a matematike, pričom dosahuje výkon porovnateľný s najlepšími modelmi od OpenAI a Anthropic. Podporuje volanie funkcií, štrukturovaný výstup a je výborne optimalizovaný pre viacjazyčné úlohy vrátane francúzštiny, nemčiny a ďalších európskych jazykov. Je ideálny pre podnikové aplikácie vyžadujúce vysokú kvalitu výstupov.
Mistral Small
Mistral Small je kompaktný a cenovo efektívny model od Mistral AI s 22 miliardami parametrov, optimalizovaný pre úlohy s nízkou latenciou a vysokým objemom požiadaviek. Napriek svojej menšej veľkosti dosahuje pôsobivé výsledky v programovaní, matematike a dodržiavaní inštrukcií. Podporuje volanie funkcií a štrukturovaný výstup, čo ho robí ideálnym pre podnikové chatboty, klasifikáciu, sumarizáciu a ďalšie aplikácie, kde je prioritou rýchlosť a nízke náklady.