1、AMD发布AI加速器——Instinct MI300系列
本周, AMD的数据中心和人工智能技术首映式在旧金山举办,AMD董事会主席及CEO苏姿丰在现场正式发布了Instinct MI300系列AI加速器,分为MI300A与MI300X,其中MI300A是数据中心首款APU,内含1400亿个晶体管,专为AI及HPC加速计算所设计,采用5或6nm制程和CDNA 3架构,采用第4代Infinity架构的3D封装技术,包含24个Zen 4 CPU核心,混合GPU核心,支持128GB HBM3记忆体。相较之前的Instinct 250有8倍的效能提升,5倍能源效率提升。目前MI300A已开始送样。
另一款MI300X专注生成式AI应用,拥有1530亿个晶体管,采用CDNA3架构,不同于MI300A混合CPU和GPU,MI300X只是GPU,可支持最高192GB HBM3内存,内存带宽每秒达到5.2TB,搭配AMD Infinity Fabric互联技术,内存带宽每秒带宽可达到896GB/s。
MI300X能支持大语言模型,苏姿丰还展示了阿联酋阿布扎比技术创新研究所(TII)开发的开源大语言模型——400亿参数的Falcon-40B安装在MI300X上,要求生成式AI作一首关于旧金山这座城市的诗。这是LLM首次能在单一GPU的内存上运行,MI300X最多可支持800亿个参数的LLM。
另外AMD MI300X在HBM密度上是Nvidia H100的1.4倍,HBM内存带宽是H100的1.6倍,也就是说运行大模型可以用更少的GPU,降低生成式AI加速的TCO成本。通过AMD Infinity连接8个MI300X组成的Instinct平台,支持1.5TB的HBM3内存,打造更大的生成式AI训练及推论环境。AMD MI300X预计是在今年第3季送样。
2、三星:计划年内量产CXL 2.0 DRAM
三星电子高级研究员LeeKyung han日前指出,随着ChatGPT等大模型发展,新内存相关需求增加,除了内存容量和速度之外,对CXL的需求也在增加。三星在CXL2.0DRAM中安装了内存池功能,该功能可以降低数据中心的建设预算。另外,三星计划在年内量产CXL2.0 DRAM。
3、AWS re:Inforce全球云安全大会的重磅发布
本周亚马逊云科技在re:Inforce大会上发布了安全技术领域很多新产品服务。比如说
Amazon Verified Permissions可以在用户构建和部署应用时,提供细粒度的认证和权限管理。通过Amazon Verified Permissions,用户可以向应用资源提供安全的委托授权,并在应用中实施基于身份的持续授权,从而更好地在应用中落地零信任架构。
Amazon Verified Permissions采用的是一个叫Cedar的开源语言,专门用于做访问控制的策略语言,让用户以易于理解的策略来实现精细的权限管理。还可以基于角色和属性进行访问控制。目前在多个地区可用,暂时不包括中国在内。
还有一个是Amazon Inspector Code Scans For Lambda,扩大了Inspector的扫描范围,不仅支持对Lambda函数的代码进行安全扫描,还可以扫描到应用程序包依赖中的漏洞。Amazon Inspector还可以扫描Lambda函数内的自定义专有应用代码,以查找代码安全漏洞,如注入缺陷、数据泄漏、弱加密或加密缺失的问题。在检测到漏洞后,Amazon Inspector会生成一些关于漏洞的若干细节,指出受影响的代码片段,还会给出解决漏洞的建议。
4、台积电下周要来上海了
据台媒《经济日报》报道,台积电总裁魏哲家带队、台积电业务开发资深副总张晓强、台积电亚业务及技术研究资深副总经理侯永清“三巨头”下周将前往上海,出席台积电年度技术论坛大陆场并与多家重要客户会面。这是台积电高层时隔三年,首次前往上海出席公开活动。没等到英伟达,先来了台积电。
5、IBM发布最新量子计算研究成果
一直以来,量子计算在某些问题上提供了比传统计算更快的速度,但在采用量子计算的过程中存在一个巨大的问题,就是这些系统存在固有的噪声,就像声音会在嘈杂的录音中丢失一样。这些噪声以一种不可预测的方式改变波函数不同分支的相位,不利于量子计算。因而研究人员尚未构建出性能普遍优于所有传统计算机的计算机。
近期IBM的一项研究登上《Nature》封面,结果表明即使是嘈杂的量子计算机,其计算也可以比传统机器更准确。他们利用一种称为「误差缓解(error mitigation)」的技术,成功地克服了当今量子比特存在的问题,尽管系统存在噪声,但也生成了准确结果。