RISC-V MCU中文社区

如何看待英伟达做CPU?英特尔CEO回应!

分享于 2021-04-14 21:41:09
0
2611

Nvidia于本周早些时候宣布了其首款用于AI以及HPC服务器的基于Arm的Grace处理器,尽管许多市场观察家都预料到了这一举动,但正式的首次亮相对AMD以及Intel的股价都造成了负面影响。


毫无疑问,英伟达是一个强大的竞争对手,但英特尔认为,它并没有真正威胁到其数据中心业务。

英特尔新任首席执行官帕特·盖辛格(Pat Gelsinger)在接受《财富》采访时说:“我们上周宣布了我们的Ice Lake [服务器处理器],并获得了非常积极的回应 。” “我们的Ice Lake 在AI功能方面进行了非凡的扩展。(英伟达)正在回应我们。不是我们对此做出回应。显然,这种AI增强型CPU的想法是英特尔在其中发挥了巨大的领导作用的领域。”他进一步指出,英特尔还拥有我们的Habana产品线(英特尔在2019年收购了一家专业的AI芯片制造商),毫无疑问地奠定了一条非常进取的道路,而我们与亚马逊的云合作伙伴关系就是一个很好的例证。

“显然,我想说CPU的想法就是Intel的起源。我们现在正在将AI融入其中,我们希望这将是我们进攻的一个领域,而不是未来的防守。”Pat Gelsinger说。

Nvidia的适用于AI和HPC机器的Grace处理器有望在AI和选择HPC工作负载方面比当今的x86处理器快10倍以上,但它要到2023年初发布。像这样的性能期望看起来总是非常强大,但是其中之一必须记住,AMD和Intel的竞争并没有停滞不前。

在早前的介绍中我们说到,英特尔最新的Xeon处理器以DL Boost的名义集成了AI加速技术,该技术目前包括AVX512_VNNI(Cascade Lake和冰湖)和AVX512_BF16(尽显Cooper Lake )等指令集扩展。事实证明,两者都具有相当的竞争力(至少根据Intel进行的测试 ),并且在处理优化算法时,它们可使Intel的CPU性能比Nvidia的GPU 高15倍。 

此外,由于英特尔的Xeon CPU的使用如此广泛,因此它们被广泛用于推理工作负载,而ISV为这些处理器优化了其引擎。简而言之,现代英特尔的至强可扩展产品已经具有AI增强功能,其后续产品自然会扩展AI功能。 

总的来说,Arm,AMD,Intel,Nvidia和许多其他公司正在努力提高其处理器(CPU,GPU,IPU,VPU等)在AI和/或HPC工作负载中的性能,以应对人工智能的需求。超级计算正在迅速发展。因此,与过去的30年相比,未来几年AI和HPC方向将取得更大进步。

需要注意的是,Nvidia当前显示其Grace CPU位于GPU旁边,而不是单独显示。因此,尽管Grace处理器本身可能具有众多AI增强器,但Nvidia将与针对计算进行了优化的数据中心GPU一起出售它们,从而为AI和HPC工作负载提供了具有令人印象深刻的功能的平台。 

同时,英特尔将在2022年推出一个类似的平台。英特尔的第四代至强可扩展“Sapphire Rapids'” 处理器(具有多达56个内核)以及针对各种工作负载的众多增强功能,将伴随着该公司1000亿晶体管的 Ponte Vecchio 计算GPU明年出现在 Aurora超级计算机中。英特尔的GPU似乎具有大约1 FP16 PFLOPS性能或1,000 TFLOPS FP16性能,这是Nvidia A100的312 FP16 TFLOPS的三倍。 

由此可见,未来的竞争更加激烈。

*免责声明:以上内容仅供交和流学习之用。如有任何疑问或异议,请留言与我们联系。
2611 0

你的回应
whik

whik 未通过实名认证

懒的都不写签名

积分
问答
粉丝
关注
  • RV-STAR 开发板
  • RISC-V处理器设计系列课程
  • 培养RISC-V大学土壤 共建RISC-V教育生态
RV-STAR 开发板