借助自适应模块化系统 (SOM)加速边缘创新

作者:赛灵思电路板与套件产品营销总监 Evan Leal

由 AI 提供支持的应用,正在日益普遍地被部署到边缘和终端,高性能 AI 推断正在推动更智慧的城市和高度自动化的智能工厂步入现实。随着智能零售引入了极为精致的自动化购物体验,零售体验也变得更加精巧细腻。这些应用需要具备极高可靠性并提供高性能,同时也需要提供高效紧凑的外形尺寸。

边缘处理难题

在边缘部署系统时,功耗、占板面积和成本都是制约因素。在边缘处理的种种限制条件下,处理需求的不断提高,意味着提供所需的性能水平将面临更大的挑战。虽然 CPU 在边缘计算上也有发展,但近年来的增长速度有所放缓。在为新一代AI 支持的边缘应用交付所需性能时,未加速的 CPU 表现得相当勉强,特别是考虑到严格的时延要求。

当在边缘上实现前沿 AI 应用时,领域专用架构 (DSA) 是关键。此外,DSA 还提供确定性和低时延。

合适的 DSA 专门设计用于高效处理所需数据,既有 AI 推断,也有非 AI 部分的应用,也就是整体应用的加速。考虑到 AI 推断需要非 AI 的预处理和后处理,这些都需要更高的性能,这一点很重要。从根本上说,要在边缘上(和其他地方)实现由 AI 提供支持的高效应用,需要整体应用的加速。

如同任何固定功能的芯片解决方案一样,为 AI 边缘应用开发的应用专用标准产品 (ASSP) 仍有自己的局限性。主要挑战在于 AI 创新的速度异乎寻常。与非 AI 技术相比,AI模型的过时速度会快得多。使用固定功能的芯片器件实现 AI,会因更新型、更高效AI 模型的出现而迅速过时。固定功能芯片器件的流片需要花费数年时间,到那时 AI 模型的前沿技术将已经向前发展。此外,对于边缘应用,安全和功能安全要求的重要性也在提高,可能经常需要成本高昂的现场更新。

自适应计算的前景

自适应计算包含能够针对具体应用进行优化的硬件,例如现场可编程门阵列 (FPGA),它是一个功能强大的解决方案,专门用于基于AI 的边缘应用。

此外,新的自适应硬件也层出不穷,包括含有 FPGA 架构并与一个或多个嵌入式 CPU 子系统耦合的自适应片上系统 (SoC)。然而自适应计算远不止“纯硬件”。它整合了一套综合而全面的设计软件和运行时软件。将它们结合起来,就形成了一种独特的自适应平台,可在其上构建非常灵活高效的系统。

用自适应计算实现 DSA,可避免使用 ASIC 等定制芯片器件所需的设计时间和前期成本。这样就能为任何特定领域应用,包括基于 AI的边缘应用,迅速部署经过优化的灵活的解决方案。自适应SoC 是此类领域专用处理的理想选择,因为它们既拥有综合全面的嵌入式CPU 子系统的灵活性,又具备自适应硬件的优异的数据处理能力。

推出自适应模块化系统 — SOM

模块化系统 (SOM) 提供完整的、可量产的计算平台。与从芯片级从头开发 (chip-down development)相比,这种方法能节省可观的开发时间与成本。SOM 能够插入到较大的边缘应用系统内,从而既可以提供定制实现方案的灵活性,又可以提供现成解决方案的易用性和更快的上市速度。这些优势让 SOM 成为边缘 AI 应用的理想平台。然而,要实现现代化AI 应用所需的性能,加速必不可少。

某些应用需要定制硬件组件与自适应 SoC 接口连接,意味着需要从芯片级从头设计 (Chip-down design)。然而,越来越多基于 AI 的边缘应用,需要相似的硬件组件和接口,甚至在终端应用迥异的时候也是如此。随着企业转向标准化接口和通信协议,尽管处理需求显著不同,但同一套组件可适用于各种类型的应用。

面向基于 AI 的边缘应用的自适应 SOM, 结合了自适应 SoC与行业标准接口和组件,使得硬件经验有限甚至没有硬件经验的开发者也可以获益于自适应计算技术。自适应SoC 既能实现 AI 处理,也能实现非 AI 处理,也就是说其可以满足整体应用的处理需求。

此外,自适应 SOM 上的自适应 SoC 支持高度的定制化。它的设计目的,是集成到更大型的系统内并使用预定义的外形尺寸。使用自适应 SOM,可以全面发挥自适应计算的优势,同时避免了从芯片级从头开始的芯片设计。自适应 SOM 只是解决方案的一个部分。软件也是关键。

采用自适应 SOM 的企业,能广泛受益于性能、灵活性和快速开发时间的独特组合。无需构建自己的电路板,他们就能够享受自适应计算提供的各种优势 — 这个优势,最近才随着赛灵思Kria™自适应 SOM 产品组合的推出在边缘得以实现。

Kria K26 SOM

Kria K26 SOM 构建在 Zynq® UltraScale+™ MPSoC 架构顶端,搭载四核 Arm® Cortex™-A53 处理器,超过25万个逻辑单元和一个 H.264/265 视频编解码器。此外,该 SOM 还搭载4GB的DDR4存储器、69 个 3.3V I/O 和 116 个 1.8V I/O,使之能够适配几乎任何处理器或接口。凭借1.4TOPS的AI算力,与基于 GPU 的 SOM 相比,Kria K26 SOM 助力开发者开发出时延和功耗更低,性能高 3 倍的视觉 AI 应用。这对安保、交通与市政摄像头、零售分析、机器视觉和视觉引导机器人等智能视觉应用,可谓是重大福音。通过标准化系统核心部分,开发者拥有更多时间专心开发自己的专属特性,从而在市场竞争中实现技术差异化。

与软件可以更新但受到固定加速器限制的其他边缘 AI 产品不同,Kria SOM 在两个方面提供灵活性,即软件和硬件都能在今后更新。用户能够适配 I/O 接口、视觉处理和 AI 加速器,为以下的部分或全部应用提供支持:MIPI、LVDS 和SLVS-EC 接口;适用于日间或夜间的高质量专用高动态范围成像算法;8 位深度学习处理单元;或未来的 4 位甚至是 2 位深度神经网络方法。多模传感器融合与实时 AI 处理的结合,如今已经非常容易实现,可以从赛灵思 KV260 视觉 AI 入门套件开始设计,通过 Kria K26 SOM 部署到生产中。

Kria KV260 视觉 AI 入门套件

面向软硬件开发者提供的优势

自适应 SOM 同时让硬件开发者和软件开发者受益。对于硬件开发者,自适应 SOM 提供了现成的、可量产的解决方案,从而节省了大量的开发成本与开发时间。此外,这些器件也允许硬件团队在流程后期变更设计,而基于固定功能芯片技术的 SOM 则无法实现。

对于 AI 开发者和软件开发者来说,自适应计算比过去更容易应用。赛灵思为确保自适应计算的易用性,对工具流进行了大量投资。通过将软硬件平台与可量产的视觉加速应用相结合,Kria SOM 产品组合的推出将这种易用性提升到全新水平。这些交钥匙应用取消了所有 FPGA 硬件设计工作,只需要软件开发者集成他们的定制 AI 模型、应用代码并有选择地修改视觉流水线。在 Vitis™ 统一软件开发平台和库支持下,他们可以使用熟悉的设计环境,如 TensorFlow、Pytorch 或 Caffe 框架以及 C、C++、OpenCL™ 和 Python 编程语言。

通过这种面向软件设计的新的加速应用范式,赛灵思还面向边缘应用推出了首个嵌入式应用商店,为客户提供来自赛灵思及其生态系统合作伙伴的丰富多样的 Kria SOM 应用选择。赛灵思解决方案属于免费提供的开源加速应用,包含智能摄像头、人脸检测、带有智能视觉辅助的自然语言处理等多种应用。

灵活应变的未来

AI 模型将继续以高速步伐向前演进发展。这意味着加速平台必须能够灵活应变,才能在现在和未来以最佳方式实现 AI 技术。实际上,SOM 提供了理想的边缘处理平台。与自适应 SoC 相结合,SOM 为由 AI 提供支持的应用,提供了综合全面、可量产的平台。采用这类器件的企业能广泛受益于性能、灵活性和快速开发时间的独特组合,并从自适应计算种收获丰厚的回报。