科技巨子血拼:微软豪掷数亿造ChatGPT超算,谷歌加急测验Big Bard,都说了什么?

科技 2023-03-14 17:07 阅读:18

机器之心报导

机器之心编辑部

本钱尽管昂扬,但巨子们更不肯错失这次时机。

近几个月,ChatGPT 爆火出圈,风头无两。人们大多把关注要点放在了 ChatGPT 强壮的生成功用和运用场景上,却很少关怀模型的运用本钱。

尽管 ChatGPT API 敞开之后,运用本钱下降了九成,但对于 OpenAI 和集成 ChatGPT 的科技公司来说,状况却大不相同。

众所周知,在谷歌查找的年代,查找引擎的工作原理是树立巨大的网络索引,在用户进行查找时,这些索引条目会被扫描、排名和分类,随后成果显现出最相关的条目。谷歌的查找成果页面实践上会告知用户查找所需要的时刻(一般不到一秒)。

而 ChatGPT 式的查找引擎会在每次查找时发动一个仿照人脑的巨大神经网络,生成一堆文本,或许还会查询大型查找索引以获取现实信息。这意味着用户与其交互的时刻或许远远超越几分之一秒,并且这些额定的处理需要花费更多的本钱。

据路透社报导,Alphabet(谷歌的母公司)的董事长 John Hennessy 及几位分析师攀谈之后写道:「与 AI 大型言语模型沟通问询的本钱或许是规范要害字查找的 10 倍以上」。对于致力于推广 ChatGPT 式查找引擎的谷歌、微软来说,这或许意味着「数十亿美元的额定本钱」。

Alphabet 董事长 John Hennessy。

尽管 ChatGPT 这个研制热门必定是要跟的,但支付的本钱是各家公司能够承当的吗?

微软:上万块 A100,为 OpenAI 造超算

微软的答案是必定的,并且它还要进一步添加相关的研制投入。

彭博社报导,微软花费了数亿美元为 OpenAI 制造了一台巨大的超级核算机,运用了「不计其数块 GPU」以推进 OpenAI 的 ChatGPT 谈天机器人。

据彭博社取得的回复,微软人工智能和云核算副总裁 Scott Guthrie 说,公司在该项目上花费了数亿美元的资金。尽管这对微软来说或许何足挂齿,究竟它最近延长了对 OpenAI 的多年、数十亿美元的出资,但这无疑标明,微软愿意在人工智能范畴投入更多资金。

在本周一的博客中,微软介绍了它是如何创立 OpenAI 运用的强壮的 Azure 人工智能基础设施,以及其体系如何变得愈加强壮。

比方微软推出了新的虚拟机 —— 运用英伟达 H100 和 A100 Tensor Core GPU 以及 Quantum-2 InfiniBand 网络,这是两家公司上一年就预告过的项目。这将答应 OpenAI 和其他依靠 Azure 的公司练习更大、更杂乱的 AI 模型。

「大约五年前,OpenAI 向微软提出了一个斗胆的主意,即它可以构建将永久改动人们与核算机交互方法的人工智能体系。」John Roach 写道。

其时,没有人知道这将意味着什么。现在,咱们理解了这种想象 ——ChatGPT,并体会到了它的法力:AI 体系可以创立人们用简略言语描绘的任何图片,谈天机器人可以依据少数单词编写说唱歌词、起草电子邮件和规划整个菜单。

像这样的技能,在其时看来未必不或许。仅仅为了构建它,OpenAI 需要真实大规划的核算才能。

2019 年,微软公司宣告向 OpenAI 出资 10 亿美元,同意为这家 AI 研讨草创公司制造一台大规划的前沿超级核算机。其时仅有的问题是:微软没有 OpenAI 所需要的东西,也不完全确认能在自己的 Azure 云服务中制造这么大的东西而不溃散。现在,这个许诺总算完成了。

微软表明,为了树立给 OpenAI 项目供给动力的超级核算机,它在 Azure 云核算平台上「将不计其数的英伟达 GPU 衔接在一起」。反过来,这使得 OpenAI 能够练习出越来越强壮的模型,并「释放出 AI 才能」,比方 ChatGPT 和必应东西。

这些打破的要害是学习如何构建、操作和保护数万个在高吞吐量、低推迟 InfiniBand 网络上相互衔接的共置 GPU。这个规划乃至比 GPU 和网络设备供货商测验过的还要大。这是一片不知道的范畴,没有人切当知道硬件是否可以在不损坏的状况下被推到那么远。为了练习一个大型言语模型,核算工作量被分配到一个集群中的数千个 GPU 上。在核算的某些阶段(称为 allreduce),GPU 会交流有关它们已完结工作的信息。InfiniBand 网络加快了这一阶段,该阶段必须在 GPU 开端下一个核算块之前完结。

「咱们看到的是,咱们将需要树立专心于完成大型练习工作负载的特别用处集群,而 OpenAI 是这一点的前期证明之一,」微软 Azure AI 企业副总裁 Eric Boyd 在一份声明中说。「咱们与他们严密协作,了解他们在树立练习环境时寻觅的、需要的要害是什么。」

谷歌:赶紧内测 Big Bard

比较于微软,谷歌的查找本钱问题无疑更大。微软之所以如此巴望撼动谷歌查找引擎,部分原因就是在大多数商场份额估量中,必应只占全球查找商场的 3%,而谷歌约占 93%。查找是谷歌的首要事务,而微软并不需要忧虑这一点。

依据 Morgan Stanley 的预算 —— 假定「类 ChatGPT 的 AI 能够用 50 个词(word)的答案处理一半的查询」,谷歌每年的本钱将添加 60 亿美元。

风趣的是,谷歌从一开端就对模型规划持谨慎态度。谷歌表明 Bard 谈天机器人开始发布的是 LaMDA 轻量级模型版别,原因是「这个更小的模型需要更少的核算才能,才能够扩展到更多的用户,得到更多的反应。」要知道这不是谷歌的常见操作,谷歌经常在模型规划方面让其他公司相形见绌,在核算资源方面也是极具优势。「规划」仅仅谷歌花点钱就能处理的问题,除非本钱添加的不是一点半点。

依据 Insider 的最新消息,谷歌正在测验一个名为 Big Bard 的模型,它是 Bard 的高档版别,运用了与 Bard 相同的言语模型 LaMDA。

依据内测示例显现,对于相同的问题,Big Bard 给出了更丰厚、更人性化的答复,它一般也更善谈、更随意。不过不是一切职工都可以内测 Big Bard ,它是有约束的,仅供部分职工运用,而 Bard 则对一切谷歌职工敞开。

除此以外,Big Bard 运用更大规划的 LaMDA,AI 技能为其谈天机器人供给支撑。谷歌表明 Big Bard 是其在布局对话模型计划中的一部分,该计划旨在创立一个通用谈天机器人,可以答复用户在其产品和服务中提出的任何问题或恳求。

出于本钱考虑,谷歌或许会推出 Bard 的限量版。但是,这场人工智能比赛并没有放缓的痕迹。上星期有消息传出,多模态的 GPT-4 将于本周发布。看来微柔和谷歌的对打一时半会儿还停不下来。

商业模式如何跑通?

类 ChatGPT 产品能为科技公司带来多大的收益,现在很难衡量。有一个已知的比如,谷歌和亚马逊的语音帮手多年来一向坚持「今后再想方法」的盈余思路,现在都未能发生赢利,并且它们是比 ChatGPT 更受约束的谈天机器人。OpenAI 在敞开 ChatGPT API 之后,以 token 为单位收取费用,但这对查找引擎来说并不适用。

微软方面现已预备「在必应谈天机器人生成的回复中刺进广告」,补偿其昂扬的服务器运转本钱。

在敞开 API 之后,越来越多的企业用户将与 OpenAI 协作,将其 ChatGPT 服务集成到自己的产品中。大多数公司运用 ChatGPT 等大型言语模型来帮助客户制造企业博客、营销电子邮件等等,而工作量比曾经少得多。但是,这些公司的产品简直都是给大型言语模型套了一个简略的「外壳」,因而很难完成差异化竞赛优势。

实践上,OpenAI 最近还推出了 4 个 GPT-3 模型 ——Davinci、Curie、Babbage 和 Ada。其间 Davinci 是功用最强壮的模型,Ada 则是速度最快的。Davinci 被一些公司认为是开发产品的更好挑选,它的输出往往比 ChatGPT 的更简练、更直接,并且在某些类别的 prompt 下也体现更好。而 ChatGPT 在一些要害范畴优于 Davinci,包含数学、心情分析等等。

值得注意的是,OpenAI 为 Davinci API 设置的定价是 ChatGPT 的十倍。因而近几周内,大多数 Davinci 用户或许会涌向 ChatGPT。对于 OpenAI 和其竞赛对手(包含 Cohere、AI21、Anthropic、Hugging Face)来说,Davinci 的定价好像愈加合理。至于 ChatGPT,它的超低定价会让行业界的同类产品价格大幅跌落,包含 OpenAI 自己的产品。

将 ChatGPT API 的价格设置得如此低的水平(只要本来的十分之一)之后,很难说 OpenAI 会从 ChatGPT 或其他任何模型中获利仍是亏本,由于这些超大规划的模型查询本钱十分高。有人猜想:OpenAI 或许现已经过除掉自 11 月初次露脸以来全世界提出的很多 ChatGPT 查询中很少激活的参数,修剪了支撑 ChatGPT 的模型以下降模型本钱。但这仅仅一个猜想。

接下来的一段时刻,OpenAI 或许会由于 ChatGPT 被很多运用而亏本。这听起来有点反直觉,但大型言语模型的练习和运转本钱的确十分高。但对于取得微软 100 亿美元和 GPU 全力支撑的 OpenAI 来说,「薄利多销」也能让它比其他竞赛对手走得更远。

https://news.microsoft.com/source/features/ai/how-microsofts-bet-on-azure-unlocked-an-ai-revolution/

https://www.bloomberg.com/news/articles/2023-03-13/microsoft-built-an-expensive-supercomputer-to-power-openai-s-chatgpt?srnd=technology-vp#xj4y7vzkg

https://arstechnica.com/gadgets/2023/02/chatgpt-style-search-represents-a-10x-cost-increase-for-google-microsoft/

https://arstechnica.com/gadgets/2023/03/has-the-generative-ai-pricing-collapse-already-started/

https://www.businessinsider.com/google-employees-test-smarter-chatbot-big-bard-2023-3