AMD 2023在EPYC上整合FPGA用于AI

admin
admin
admin
4074
文章
0
评论
2022年5月6日10:47:23 评论 0次
  • 拼多多砍价群
  • 微信扫一扫进群
  • weinxin
  • 各行各业微信群
  • 微信扫一扫进群
  • weinxin

AMD它将在其财务报告电话会议上宣布CPU在产品组合中注入赛灵思FPGA驱动的AI第一批产品预计将于2023年3年到来。这一消息显示,AMD迅速采取行动,将其540亿美元收购赛灵思的成果纳入其产品线,但这并不完全令人惊讶--该公司最近的专利显示,它在将人工智能加速器连接到处理器的各种方法上取得了成功,包括复杂的使用3D芯片堆叠技术。

AMD 2023在EPYC上整合FPGA用于AI

AMD决定将其CPU与内置的FPGA在同一包装中搭配并不完全是一个新的决定--2015年底,英特尔收购了167亿美元Altera获得的FPGA组合也尝试了同样的方法。然而,英特尔早在2014年就宣布了CPU FPGA组合芯片甚至展示了测试芯片,但芯片直到2018年才推出,而且只有有限的实验,显然是死胡同。多年来,我们没有听到更多关于英特尔项目或其他衍生产品的消息。

AMD 2023在EPYC上整合FPGA用于AI

AMD还没有透露FPGA产品的任何细节,但公司将Xilinx FPGA芯片连接到芯片的方法可能更复杂。尽管英特尔使用标准PCIe通道和其QPI连接它FPGA芯片和CPU,但AMD最近的专利显示,为了适应各种包装选项,正在开发加速器端口。

AMD 2023在EPYC上整合FPGA用于AI

珑京AMD EPYC 7763高性能CPU霄龙第三代米兰处理器 64线程服务器配件

[经销商] 京东商城

[产品售价] 42188元

包括这些选项3D堆叠芯片技术与目前的堆叠芯片技术相似Milan-X用于连接处理器SRAM芯片技术,将FPGA在处理器中集成芯片I/O芯片(IOD)以上。这种芯片堆叠技术将在性能、功率和内存吞吐量方面提供优势,但就像我们在一样AMD现有的使用3D如果芯片放置在计算模具附近,堆叠芯片也会带来热挑战,阻碍性能。AMD放加速器I/O芯片上的选择很有意义,因为这将有助于解决散热挑战,从而使AMD能从邻近CPU芯片(CCD)提取更多性能。

AMD还有其他选择。通过定义加速器端口,公司可以在其他模具上容纳堆叠芯片,或者简单地在标准上2.5D使用独立的加速器芯片而不是独立的加速器芯片CPU芯片(见上图)。AMD其他类型的加速器,如GPU、ASIC或DSP,带入游戏AMD他们未来的专有产品提供了很多选择,客户也可以混合和匹配这些不同的芯片AMD在为其半定制业务设计的定制处理器中。

随着数据中心定制浪潮的继续,这类基础技术肯定会派上用场,AMD他最近宣布了128核EPYC Bergamo CPU就证明了这一点,它配备了一种新型的 "Zen 4c "优化了云原生应用的内核。

AMD已使用其数据中心GPU和CPU来解决AI前者通常处理训练负荷AI计算模型密集型任务。AMD将使用赛灵思FPGA人工智能引擎主要用于推理,即使用预训练的人工智能模型来执行某些功能。

AMD公司自适应和嵌入式计算集团总裁Victor Peng赛灵思已经在公司财务报告电话会议上表示AI 发动机用于图像识别、嵌入式应用和边缘设备(如汽车)"各种 "推理应用。Peng指出该架构可扩展,非常适合公司CPU。

推理工作负载不需要那么大的计算能力,在数据中心部署中比训练要普遍得多。因此,在庞大的服务器组中部署了大量的推理工作负载,英伟达创造了一个低功率的推理GPU,如T4,英特尔在其最强芯片中依靠硬件辅助AI加速解决这些工作负荷。

AMD决定使用差异化芯片来瞄准这些工作负载,这可能会使公司在某些数据中心的部署比英伟达和英特尔更有利。然而,软件和以前一样关键。AMD首席执行官Lisa Su和Peng公司将利用赛灵思的软件专长优化软件栈,Peng评论说:"我们绝对致力于统一的整体软件,使用广泛的产品组合,但特别是在AI所以你会在财务分析师日听到更多关于这方面的信息,但我们肯定会倾向于人工智能,包括推理和培训。"

AMD金融分析师日是2022年6月9日,我们肯定会了解更多关于注入新人工智能的信息CPU。

匿名

发表评论

匿名网友 填写信息