云厂商力推自研AI芯片,英伟达要不要做公有云?

亚马逊、微软、谷歌等云巨头都在通过投资AI模型开发商,推动自身技术与商业模式的迭代。而马斯克通过自建平台的方式,试图逃出传统云厂商的五指山。

这些多样化的策略不仅为AI技术的发展提供了强大动力,也为未来的竞争格局增添了更多可能性

正文:

如果亚马逊想通过其定制化的AI技术在与谷歌和微软的竞争中占据优势,那么它就需要在自研的AI加速器上运行最强大的模型。谷歌已经通过自己的Gemini和自研TPU实现了这一点,微软也计划将OpenAI的GPT模型迁移到其Maia加速器上。

这或许能解释,亚马逊为什么最近又对Anthropic追加了40亿美元的投资。

亚马逊希望通过这种方式巩固其云服务的竞争优势,同时将大笔资金在Anthropic与AWS之间循环运转。

这样既能拿到生成式AI的船票,也能让自身的云服务业务得到进一步发展,最起码是可以让AWS获得更多来自生成式AI领域的营收。

这种投资模式可能会持续多年,或许是:直到Anthropic和OpenAI有能力开发自有AI加速器并建立自己转有基础设施的那一天。

云服务与AI模型的协同战略

AWS与Anthropic的合作是云服务商与AI模型开发商之间复杂战略的典型体现。

微软在OpenAI的投资已达130亿美元,AWS则对Anthropic投资了40亿美元。这些资金在推动AI创业公司发展的同时,也带动了云服务的快速扩张。

谷歌的母公司Alphabet也已对Anthropic投资了25.5亿美元,也显示出了其对大型语言模型的高度重视。

AWS与Anthropic的合作升级

AWS与Anthropic的合作早在2023年就已开始,当时AWS投资12.5亿美元,并将Anthropic的Claude模型迁移至其自研的Trainium训练芯片和Inferentia推理芯片上。

今年AWS再次追加27.5亿美元,并在上周宣布最新一轮40亿美元投资,前后共计80亿美元。

AWS希望通过自研芯片降低对昂贵的英伟达显卡的依赖,从而为用户提供更具性价比的AI计算服务。

Claude模型的优化将进一步增强Trainium和Inferentia芯片的竞争力,并通过AWS的Amazon Bedrock平台服务实现更广泛的商业化应用。

截至目前,Amazon Bedrock平台已经有数万家客户付费使用Claude模型。

这种生态系统的构建为AWS和Anthropic创造了良性循环,不仅能够优化硬件与软件的协同,还能提高整个AI技术栈的效率。

马斯克偏爱自建AI基础设施

与AWS和微软的策略不同,马斯克似乎更倾向于独立构建自己的AI计算平台。今年,马斯克打造了有10万块H100显卡的“Colossus”超级计算机

虽然有证据显示特斯拉也在用AWS云服务,但马斯克对成本的极度控制导致它不愿意用别人的云,更愿意通过自建来控制成本。

几年前,刚刚收购Twitter(现在叫X)的马斯克,很快就决定让Twitter下云,有报道提到,部分下云之后的在云上的支出减少了60%。

未来,马斯克可能会将特斯拉开发的“Dojo”AI引擎扩展至其旗下的其他公司来使用,包括xAI、SpaceX和X。

如果这一策略成功,Dojo甚至可能成为一家独立公司,为其他企业提供AI技术支持。

未来展望:独立与整合的权衡

对于Anthropic和OpenAI而言,想要保持独立性就需要不断通过融资提高自身的估值,同时,这也会稀释其“云计算金主”所占有的股份。

Anthropic目前的估值仅为180亿美元,而亚马逊持股比例约为44.4%。相比之下,OpenAI的估值已达1570亿美元,微软的持股比例可能超过8.3%。

与此同时,xAI最近完成了一轮50亿美元的融资,其估值约在400亿到450亿美元之间,这笔资金将主要用于“Colossus”超级计算机及其数据中心建设。

以此为基础,马斯克未来或许会构建自己的云计算平台“xCloud”,为旗下公司提供支持。这点是有可能的,马斯克还说过想让特斯拉的算力充当云计算的节点,可见他一直在惦记着怎么做点云服务。

此外,英伟达是否会进入云计算领域,也值得关注。黄仁勋如果打算与马斯克合作建立一个云平台,或与之展开竞争,都将成为行业的重大新闻。

你觉得老黄会自己做公有云服务吗?如果说AWS、Azure、GCP上的AI负载都跑在自家自研的AI芯片上,老黄会做一个NV云吗?