云端与本地结合的人工智能:创新的AMD客户端AI视觉应用

在评估客户AI需求和愿景时,需考虑多种驱动因素,包括数据驱动、技术驱动,以及由应用和客户案例所驱动的因素。

AMD CVP兼总经理、计算和图形首席架构师Sebastien Nussbaum

“核心问题在于市场产生了多少数据,以及我们能否有效处理和应用这些数据?”AMD CVP兼总经理、计算和图形首席架构师Sebastien Nussbaum在分析当前客户端人工智能愿景时指出。

自1970年微处理器诞生以来,信息的扩展和访问速度显著加快。互联网时代的到来,尤其是2000年后的爆炸性增长,使得智能手机普及,信息量激增。预计到2020年,互联网上的数据量将超过64 ZB字节,并在未来几年内迅速增长至200ZB字节以上。

这种数据量的激增推动了信息技术的快速迭代和主流应用,人工智能技术也以惊人的速度和效率扩展,计算模型的增长达到了前所未有的水平。

当前客户端人工智能愿景

目前,全球有超过74万个在线人工智能模型,它们创造了多样化的用例并解决了众多问题。过去一年中,至少产生了155亿张AI生成的图像。预计到2024年,全球人工智能工具用户将达到3.14亿。

人工智能应用正逐渐成为主流,通用人工智能(AGI)时代正逐步到来。继生成式AI之后,AI应用的下一个目标是发展自主式AI,这涉及到在特定领域训练的简单模型,以满足特定需求并确保推理和目标的应用。

AMD正在联手各类型合作伙伴,把各类新技术应用到云、医疗保健、工业制造、汽车、通信、PC、游戏和机器人等广泛的领域,推动人工智能无处不在。

今日AMD的AI PC之旅

这些目标的实现,离不开与微软长达5年的紧密合作。AMD推出的锐龙 9000系列桌面处理器和第三代Ryzen AI以某种方式改变并带来了全新的PC体验,凸显了公司致力于设计和技术创新的决心;特别是微软最近推出CoPilot+,将PC重新定义为AI PC,此举超出了传统渐进主义无法实现的目标;而与赛灵思的并购合作,将AMD XDNA集成到AMD APU,也加速了这一进程。

人工智能:开启PC新进化的关键

Sebastien Nussbaum认为,解锁PC下一代演进的关键在于技术驱动因素和基础设施内部的变化。AI被视为重要的加速器,辅助框架功能。

将AI功能嵌入操作系统和其他核心功能至关重要。未来AI将具备三大特征:基于自然语言的人机交互、自主和无缝的体验,以及始终在线的数据驱动用户体验。

那么,AI PC体验从何开始,又将走向何方?

Sebastien Nussbaum以游戏为例介绍说,游戏是一种一直在寻找新的技术来解决种种难题,每一项新的开发都需要花费开发团队大量的精力。而通过AI辅助游戏开发,时间就要快得多。比如,开发者不仅可以快速重新制作相同的内容,还能够将传统的分析计算功能 (例如视觉处理) 移动到基于AI的模型中,从而改善投影或特定场景的效果。

这些增强的功能只是开发流程的一部分。

North Star计划:对大型语言模型体验的不懈追求

人工智能应用分为本地和云端两种形态。本地AI的优势在于隐私保护、数据安全性和高性能,但可扩展性有限。而云端AI则提供了远超本地的容量和吞吐量。

因此,对大模型的应用是在边缘端还是在云端,是一个值得掂量的话题。

如何才能充分利用这两个世界的优势呢?

AMD正在推动技术创新,以充分利用本地和云端的优势。基于Ryzen AI 300处理器系列,AMD支持高达70亿参数(量化精度为int4)的大型语言模型(LLM),输入序列长度高达2K,提供每秒20个Token的生成速度,首个Token生成的延迟为1至4秒。

这远远不能满足现实需求。

North Star计划对比第三代Ryzen AI

为此,AMD正在尽全力推动技术创新,如提供更大的逻辑面积、性能更强的NPU,并且在内存总线的限制方面也取得突破,以硬件和软件性能的巨大提升来应用未来的长期发展。正在研发的新型Ryzen AI PC芯片,将支持以每秒100个Token的速度在本地运行300亿参数(量化精度为int4)的LLM,实现3K的语义长度,生成首个Token的延迟目标设置为低于100毫秒。

这就是AMD名为“北极星(North Star)”的计划。

“North Star”计划旨在实现15GB的内存和超过1.5 TBps的带宽,性能接近配备HBM2的40GB Nvidia A100 PCIe卡。这一目标对AMD来说是一个巨大的挑战,但同时也彰显了其在AI领域的雄心和信心。

成功地将云、企业和AIPC连接

这样,凭借独特的优势,AMD成功地将云、企业和AIPC连接在一起,利用为云创建的基础设施开发、部署,并增强AIPC的功能和可用性。

结合本地和云端的人工智能

AMD与云合作伙伴共同开发技术组件,实现了无缝处理。例如,将生成式AI集成到视频处理中,提高了效率和准确性。

一个典型的案例就是将生成式AI集成到视频处理中,以提高效率和准确性。例如,在洛杉矶的电影开发工作室有效地应用AIPC在本地作为最终渲染的预览,实现了非常快速和高质量的迭代过程。

技术迁移对于从云端到AI PC的快速转移至关重要,AMD通过结合本地技术和数据中心性能,实现了混合客户端到云的数据迁移。

实现客户端到云的数据迁移

要实现最佳效果,就必须有正确的技术解决方案,以便能够以安全的方式在端点和云之间进行更多数据迁移。AMD将本地技术与专为大规模模型设计的数据中心以超过本地上百倍吞吐量的性能结合在一起,通过安全数据传输和机密计算安全实现了从混合客户端到云的数据迁移,提高了处理能力和混合AI性能。

Blackmagic Design的应用是另一个成功的故事。该公司与AMD的合作实现了1.5倍的光线加速、3倍扭曲速度和4倍快的魔法面具。Blackmagic Design公司达芬奇软件工程总监Rohit Gupta表示,“我们与AMD的合作使我们能够利用DirectML在我们最具影响力的ML模型上实现出色的性能提升。”

这种混合云与本地相结合的方法,利用更大、更准确的模型获得专业成果,同时通过机器学习优化增强本地设备能力,毫无疑问具有强大的生命力,因为,它已经成为每个人工作方式的基础。

结语

看得出来,Ryzen AI 300展现了AMD在人工智能优化GPU设计和工作负载处理方面的强大能力。

Ryzen AI 300:被誉为人工智能道路上的开创性之旅

很显然,AMD利用人工智能和技术进步推动了计算性能和创新的边界,为未来发展奠定基础。