Mixtral 8x22B 开源模型登场,1760 亿参数、大小 281GB

科技 2024-04-11 08:21 阅读:24

IT之家报道,Mistral AI 公司最新推出了 Mixtral 8x22B 开源模型,这个模型可谓是庞大无比,拥有着1760亿个参数,Context长度达到6.5万个token。而且,这个模型的文件大小更是惊人,高达281GB!想象一下,这个数字有多么庞大,让人不禁感叹现代科技的发展速度。

Mistral AI 公司一直备受外界关注,他们的发展历程简直就是一个传奇。从6人团队、7页PPT、8亿融资,到如今推出这样一个庞大的开源模型,每一步都让人瞩目。更令人振奋的是,他们得到了微软的投资,进入了发展的快车道,展现出了强大的实力和潜力。

Mixtral 8x22B 开源模型的发布让人热切期待,官方已经放出了Torrent种子链接,方便用户下载。用户可以通过磁性链接直接下载,或者通过HuggingFace和Perplexity AI Labs平台进行下载。这种便捷的下载方式,让用户更容易获取到这个庞大的模型,体验其中的强大功能。

值得一提的是,Mixtral 8x22B模型虽然拥有着1760亿个参数,Context长度为6.5万个token,但用户也可以选择调用部分模型(440亿参数),使得使用起来更加灵活。这种灵活性让用户可以根据自己的需求,选择合适的模型进行使用,提高了使用的便利性和效率。

Mixtral 8x22B 开源模型的推出,不仅展现了Mistral AI 公司的实力和创新能力,也为用户提供了更多选择和便利。相信随着这个模型的应用,将会为人工智能领域带来更多的可能性和发展机遇。