生成式AI爆火背后,(烧钱的)算力市场快速兴起
以ChatGPT为首的生成式AI现在的火热程度是什么样的?
“有什么问题先问ChatGPT,如果它不会再来找我。”
“DALL-E和Stable Diffusion能通过文字描述出图了,我该怎么跟它提需求!”
“还是Midjourney画的好,可人家要付费了……”
“李清照(画像)能怼人怎么了?D-ID直接照片加文本就能生成你怼天怼地的视频!”
会玩的已经在让它们写论文、做视频、调参生成更正经的图片参赛,甚至诱导其生成自主意识“逃离”人类控制去了.而还在原地蒙圈的,比如我,依然沉浸在会烧钱的ChatGPT问答反应确实快又准的感慨,跟当初知道谷歌负责投喂的DeepMind单2017年就因为AI模型训练烧掉4亿刀一样。
ChatGPT也确实不愧是阿尔法狗之后二次开启全球AI时代新篇章的“当红流量”,本身基于Transformer技术,随着模型不断迭代,从GPT-3到GPT-3.5再到GPT-4,训练量大幅增加,参数量从1.17亿跃升到100万亿,而100万亿参数是我们对人脑中神经连接数的低估计数,没错它已经是“超人”了,因此更烧钱了。
大致来说,首先是ChatGPT的大语言模型就很贵,这个人家不开源咱就别想了,其次是它的运行的开销,比如运行模型,查询和回答我们的问题即推理的过程,计算成本就达到数百万刀,国外报道里谷歌高管自己算了一笔帐,“如果把ChatGPT部署到谷歌进行的每一次搜索中,需要512820个A100 HGX服务器,共4102568个A100 GPU,这些服务器和网络的总成本仅开支就超过1000亿美元”。
已经不好意思怪OpenAI开了ChatGPT Plus,每月收20美元订阅服务费了。回到花钱的大方向,当然还是对算力的需求上。即便预训练模型开源,具体的算力节约量仍取决于数据集的大小、模型的规模、训练策略的设置等诸多因素,算力市场依然很广阔。就像阿里王坚说的——算力是我们创新的基础,算力在当今像电力一样的存在,不是简单替代了马的动力,而是代表了一个时代的转折到来。
云计算厂商拉活儿,带动算力服务
算力市场的兴起是毋庸置疑的。作为OpenAI的金主微软已经让自己的亲儿子新必应接入了GPT-4,还有Microsoft 365 Copilot简直是平地一声雷,让微软最近的热度一骑绝尘。那么,烧钱的除了在烧钱,对能赚钱的业务——微软的Azure云是不是也该拉一把了?
有国外的分析师预测,云计算厂商的业务增长正在急剧放缓,今年三大云厂商(我想应该是国外的亚马逊,微软和谷歌的云服务)的云收入合计增长将跃升18%,但比去年的增长低了一半。我们知道近期比较大的裁员事件是亚马逊说要全公司裁员9000人,主要针对的也是云计算部门。
不过,他们也坚定的认为生成式AI带来的算力需求暴增将会大大提振云计算业务。因为各行各业新型的AI初创公司需要大量的算力来开发和运行他们的应用,但他们不一定都有能力烧钱买设备,自己攒计算资源,那么按需租用计算资源简直是唯一的好办法。这些AI初创公司可能就会是云服务提供商的新大客户,据风险投资公司Andreessen Horowitz估计,大约10%到20%的生成式AI应用收入流向了云厂商,其中大部分会流向前三。很难不让人联想一下,微软Azure作为第一个生成式AI的尝鲜者有什么诱人的条件吸引AI公司。
这里还要说说国内的预见,近两年我们的“东数西算”工程搞得很大,通过构建数据中心、云计算、大数据一体化的新型算力网络体系要把东部算力需求有序引导到西部,促进东西部协同联动,同时算力供需得到保障。中国信通院也在积极推动云服务与算力资源的融合,助力新型AI企业应用的落地。
最后
ChatGPT,现在轮到你反哺云计算市场了,你准备好没?云计算厂商准备好营销攻势了没?也许,我们5月26日在苏州的数字基础设施技术峰会考虑参与一下?