Meta震撼发布MEGALODON:7B参数无限长文本大模型,开源惊艳登场!
近日,Meta发布了一篇名为“MEGALODON:EfficientLLMPretrainingandInferencewithUnlimitedContextL...
近日,Meta发布了一篇名为“MEGALODON:EfficientLLMPretrainingandInferencewithUnlimitedContextL...
IT之家4月17日消息,国内AI初创企业MiniMax稀宇科技今日正式推出MoE混合专家模型架构的abab6.5系列模型,核心能力开始接近GPT-4、Cla...
在人工智能领域,大模型因其在理解和生成自然语言方面的卓越能力而备受关注。通过捕捉和再现人类语言的复杂性和微妙性,为使用者提供了与机器进行自然对话的可能性。不过,这些模型背后的训练...
新智元报道编辑:桃子好困【新智元导读】Transformer王座即将被取而代之!Meta、USC、CMU和UCSD联合提出了革命性新架构Megalodon,能够处理无限...
新智元报道编辑:LRS【新智元导读】本文分享论文GeRM:AGeneralistRoboticModelwithMixture-of-expertsfor...
未来世界的程序员,说话就能当!在百度AI开发者大会上,李彦宏提出了这一概念,预言未来自然语言将成为新的通用编程语言。不再需要编程技能,只要会说话,就可以成为一名开发者,用自己的创造...
在当前机器学习(ML)范式中,训练数据的集中式处理存在隐私和安全风险。联邦学习(FL)应运而生,但恶意客户端的投毒攻击成为一大难题。FLock公司及其合作研究者们通过基于区块链的F...
机器之心报道编辑:蛋酱、陈萍如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。今天,斯坦福HAI研究所发布了第七个年度的AIIndex报告,这...
大约1个月前,马斯克所创办的xAI团队宣布开源Grok-1——一个参数量为3140亿的MoE大模型。从参数量来看,Grok-1超越了70B的LLaMA2...
在最近的对话中,张鹏和无问芯穹的夏立雪探讨了中国的ScalingLaw如何成为大模型进化的“不二法门”。夏立雪认为,中国可以通过应用场景的ScalingLaw来解决大模型的落地...