英特尔Nervana神经网络处理器曝光:专用于AI工作负载 (英特尔m)
整理分享英特尔Nervana神经网络处理器曝光:专用于AI工作负载 (英特尔m),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:英特尔nic,英特尔m,英特尔xeno,英特尔 me,英特尔yes,英特尔 me,英特尔xeno,英特尔nand,内容如对您有帮助,希望把内容链接给更多的朋友!
芯片巨头英特尔近日宣告将很快出货首款针对AI工作负载专门规划的处理器。英特尔表示,经过三年时间的开发,这个全新的Nervana神经网络处理器(NervanaNeuralNetworkProcessor)家族代号为“LakeCrest”,将大大提升深度学习的速度和计算效率。 英特尔企业副总裁、人工智能产品部门总经理NaveenRao在一篇博客文章中详细介绍了这款新的芯片,他指出,“机器学习和深度学习已经成为这个世纪以来最重要的计算工作负载。” 很少有人否认人工智能和机器学习的重要性,这已经成为当今发展最快的技术趋势之一。Nvidia因为它的GPU芯片成为人工智能和机器学习的工作标准,从而在最近几年快速声名鹊起。 英特尔也决定投身于这一趋势前沿,将其作为巩固在数据中心领域优势的战略之一。这也解释了为什么英特尔在过去个月一直强调自己FPGA加速器的能力,这种加速器用于为英特尔专用计算芯片加速深度学习工作负载。 但是很多FPGA就会被Nervana神经网络处理器挤到一边,后者提供了许多相同的速度和性能优势。这是因为这些芯片采用了一种新的内存架构,Rao称这个架构规划旨在最大限度提升处理速度。与以往的芯片不一样,Nervana系列不带有一个管理缓存层,而是采用软件来管理片上内存,以确定分配给不一样的*作。 Rao表示,这个功能让Nervana芯片能够“实现新一代面向深度学习的计算密度和性能”。他解释说,这个芯片具有一个简单的技巧就是所谓的“大规模双向数据传输”,这使得多个处理器可以作为一个大型虚拟芯片,可以容纳更大的AI模型,比以前更快地提供更好的洞察。 研究公司MoorInsights&Strategy总裁、首席分析师PatrickMoorhead表示:“这将是一个致力于训练用的大型芯片,但也可以用于推算的高吞吐量数据要求。”这里说的训练是将数据提供给深度学习算法,这样这些算法就可以自我学习而不是被明确编程运行。 然而,Moorhead表示,Nervana芯片将不会完全消除某些工作负载对FPGA的需要。“FPGA对于很多推算使用来说依旧是更具成本效益的方式,例如某些特定层要求1-3字位的精度。推算这是指运行训练算法的过程。” 英特尔尚未提供发布Nervana神经网络处理器的确切日期,但表示将很快发布这款新的芯片。