首发神经网络处理器Nervana (神经网络f1)
整理分享首发神经网络处理器Nervana (神经网络f1),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:2020神经网络进展,第一个神经网络模型,神经网络sgd,神经网络最新,第一个神经网络模型,神经网络f1,第一个神经网络模型,第一次神经网络研究,专家们的新思路,内容如对您有帮助,希望把内容链接给更多的朋友!
Intel的新闻稿中其实并没有多少关于Nervana处理器的实质性内容,通篇都是在讲述Intel已经在不一样领域展开研究,先有了量子位的Qutech量子处理器,现在又有了Nervana人工智能处理器,它们都在不一样领域发光发热。并且会继续对前沿领域进行创新性的研究、投资新硬件、算法,必要时会收购相关初创公司,保持技术领先优势。 而小编另外找到一篇介绍Nervana处理器的博客,是由Nervana处理器主导研究者NaveenRao所撰写的,里面提到了一些关于该神经网络处理器的关键技术,还是相当有趣的。 现在机器学习、深度学习已经成为全球广泛运用的数据分析、研究方式,不过现在已有的处理器在运行相关程序总是显得力不从心,因为X处理器其通用性架构本来就不擅长于大数据处理,因此像NVIDIA开发的计算卡就派上用场了。而Intel为了弥补这方面*,开始了Nervana处理器的开发,其特点如下:新的内存体系 矩阵乘法以及矩阵转置一直都是深度学习中的核心运算*作,这些计算不一样于平常运算,很大程度上它们都是已知的*作,因此IntelNervana处理器摒弃了原来的标准的缓存结构,而是利用软件实现内存管理,这样压榨出处理器的最大性能(估计意思就是不需要原来复杂的缓存结构和控制单元电路,所有让位给计算单元,实现更高的计算性能)。新一代的AI模型 规划有高速片外互联通道,可以让Nervana处理器实现高速的双向数据传输,多个处理器甚至可以组成一个更加庞大的神经网络*,可以实现更大的计算量,帮助客户快速获得有用数据。专为人工智能规划的Flexpoint运算 神经网络计算在单个芯片上很容易受到功耗以及内存带宽*,为了实现更高的吞吐量,Intel发明了一种新的运算Flexpoint,可以实现标量的点乘和加法,而且这种计算单元可以节省下不少的电路晶体管,因此可以提升处理器的密度,并且减少功耗。 Intel表示,Nervana处理器并非只有一款,多代处理器正在打造当中,在未来这些产品有助于在年实现深度计算数百倍的性能提升。而第一个合作方就是Facebook,双方将会深入合作使用,但未具体公布相关细节。