Mixtral 8x22B 开源模型登场,1760 亿参数、大小 281GB IT之家报道,MistralAI公司最新推出了Mixtral8x22B开源模型,这个模型可谓是庞大无比,拥有着1760亿个参数,Context长度达到6.5万个token... 调用gb上下文开源模型软件安装包mixtral 科技2024-04-11 08:21