2024年4月19日 亚马逊云科技宣布,Meta刚刚发布的两款Llama 3基础模型Llama 3 8B和Llama 3 70B现已在Amazon SageMaker JumpStart中提供。这两款模型是一系列经过预训练和微调的生成文本模型,上下文长度为8k,能够支持广泛的用例,并在推理、代码生成和指令跟随等方面有所改进。客户可以在Amazon SageMaker JumpStart中轻松发现、部署Llama 3基础模型,并运行推理。
Llama 3提供两种参数大小的模型——8B和70B,上下文长度为8k,能够支持广泛的用例。Llama 3使用了仅含解码器的Transformer架构,以及高达128k规模的新型分词器,极大提升了模型的性能。此外,Meta改进的训练后处理程序大幅降低了误拒率,提高了模型响应的一致性和多样性。
Amazon SageMaker JumpStart提供预训练的模型、内置算法和预构建的解决方案,帮助客户快速开始机器学习项目。Amazon SageMaker JumpStart能够帮助客户从广泛的公开可用基础模型中进行选择,并将基础模型部署到专用的SageMaker实例中,这些实例置于网络隔离的环境,并可以使用SageMaker进行模型训练和部署。
客户现在可以在Amazon SageMaker Studio中通过几次点击或通过SageMaker Python SDK编程方式发现并部署Llama 3模型,还可以利用SageMaker Pipelines、SageMaker Debugger或容器日志等功能,提升模型性能并实施MLOps控制。此外,该方式部署的模型始终处在亚马逊云科技的安全环境下,由客户的VPC控制,以确保数据安全。
Meta Llama 3基础模型现已在Amazon SageMaker Studio的美东(北弗吉尼亚州)、美东(俄亥俄州)、美西(俄勒冈州)、欧洲(爱尔兰)和亚太(东京)区域提供部署和推理服务。