一场始于2022年下半年的大模型技术热潮,到了2023年4月,不仅丝毫没有退势,反而越来越热闹了。
以ChatGPT为代表的生成式大模型技术,不仅有技术突破性,而且非常有话题性。大模型大幅度提高了AI的智能化水平,并且在多个场景都表现出诱人的应用前景。
最近,就连从不跟风,只强调客户导向的亚马逊云科技也终于按奈不住进场竞争了。
2023年4月13日,亚马逊云科技发布两个大模型(亚马逊称之为Foundation Model-FM),第一个是针对总结、文本生成(如原创博客)、分类、开放式问答和信息提取等任务的生成式大语言模型。
第二个是文本嵌入(embeddings)大语言模型,能够将文本输入(字词、短语甚至是大篇幅文章)翻译成包含语义的数字表达(即embeddings 嵌入编码)。亚马逊云科技表示,除了这两个以外,未来还会有一系列模型都隶属于Amazon Titan家族。
除了大模型,同时发的还有新的训练和推理实例,一个面向开发者的AI编程工具Amazon CodeWhisperer,还有用于托管和开发生成式AI应用的Amazon Bedrock。四箭齐发,亚马逊云科技抢占大模型市场机遇。
Titan生成式大语言模型可以看做是ChatGPT的竞品,用户输入自然语言,模型会返回自然语言,可用在写博客、写邮件、总结文档、回答问题等场景。
作为同类竞品,很难不与ChatGPT做对比,也很期待后续关于这一模型与ChatGPT的一些对比的信息。
Titan文本嵌入大语言模型用法也更清晰,主要用于搜索和个性化推荐的场景。
以搜索为例,用户输入的文本会被转换为包含语义的数字表达,并且会存放到一个叫embedding space的地方,而要搜索的对象本身也在embedding space里,经过比对后就能更精准的进行匹配。该模型可提高搜索和推荐的精准度。
作为亚马逊云科技推出的AI云服务,它跟类ChatGPT一样的免费服务是不同的,它会避免用户隐私泄露的问题,比如,不会拿用户的数据来做训练,避免三星用ChatGPT泄露数据的问题。
亚马逊云科技生成式AI全球副总裁Vasi Philomin博士表示,亚马逊云科技不会拿用户的数据来训练模型,所有用户数据都会不会离开VPC,并且是加密的,用户数据隐私是有保障的。
众所周知,通用大模型的通用性很强,什么都懂一点,但是在特定领域的表现比较一般。当在大模型基础上针对特定领域进行训练之后,就能大幅提高在某些特定领域中的表现,这被很多人视为非常有前景的实践方向。
事实正是如此,比如,原始的Stable Diffusion表现很一般,而用了LoRA之后,生成的图则有以假乱真的实力。Meta泄露出来的LLaMA大模型表现也很一般,但基于它做的调优模型,表现有明显提高,一些场景中的表现甚至与业内标杆GPT-3.5不相上下。
亚马逊云科技提供Amazon Titan家族以及第三方(包括AI21 Labs、Anthropic 、Stability AI)的模型帮助用户训练模型,并且用新推出的Serverless服务Amazon Bedrock帮用户快速构建和扩展各种生成式AI应用。
对于打算用自己的数据定制化开发模型的用户,可以直接在亚马逊云科技上使用EC2实例。
4月13日,亚马逊云科技还发布了Amazon EC2 Trn1n实例,该实例是专门为生成式大模型准备的,为生成式AI做了专门的优化。
Trn1n在原来Trn1的基础上强化了网络,网络带宽翻倍为1600 Gbps。与Trn1相比,在构建大规模网络密集型模型时的性能可以提高20%以上,能用30000个Trainium构成的UltraCluster来训练大模型。在提高训练速度同时,至少能带来50%的成本节省(与其它EC2相比)。
大模型训练的费用惊人,其实,实际生产环境中,更费钱的是推理。
4月13日正式发布的还有Amazon EC2 Inf2(此前为预览版),它采用的是Inferentia2芯片,在性能和能效方面达到了新的高度,在成本方面又低了一大截。其中,Inf2的吞吐提高了最多四倍,而延迟相较于上代降低了最多10倍以上,性价比相比其他EC2实例提高了最多40%。
新推出的Amazon EC2 Trn1n和Amazon EC2 Inf2将云上大模型的训练和推理的成本骤降,成本问题对于用户将大模型放在云上非常重要。
随着大模型技术浪潮的来袭,以显卡为主的计算资源又变得更紧俏了。大模型集群动辄需要成千上万块显卡,每块显卡的成本都很高,训练需要大量装有显卡的服务器组成集群,还需要交高昂的电费成本,各种因素都不断拉高大模型的训练成本。
高昂的成本阻碍了AI的民主化进程,使得先进的AI技术只能掌握在少数资金充裕的大公司手里,而亚马逊云科技一直在推行机器学习上云。大模型爆火的背景下,又一次努力将云打造成适合训练和部署大模型的地方。