忘掉酷睿和骁龙:人工智能时代你该认识这些芯片 (酷睿和骁龙的区别)
整理分享忘掉酷睿和骁龙:人工智能时代你该认识这些芯片 (酷睿和骁龙的区别),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:骁龙和酷睿哪个好,骁龙处理器和英特尔酷睿处理器,酷睿 骁龙,骁龙与intel,骁龙和酷睿哪个好,酷睿 骁龙,骁龙和酷睿哪个好,骁龙和酷睿哪个好,内容如对您有帮助,希望把内容链接给更多的朋友!
现在?人工智能芯片多到一双手已经数不过来了。几乎每一家过去的“软件”或者“服务”公司,那些跟硬件一直没太大关系的大型科技公司,比如Google、亚马逊、微软,都已经开始运用,或者正在研究自己的深度学习加速处理器。 Google的人工智能驱动着每一次搜索的结果展现,Facebook用人工智能来优化用户的时间线,在用数千种语言发布的内容之间互译,*也在西雅图设立了实验室进行人工智能基础研究,尝试将其用在微信等用户过亿的产品中。 而这种变化对芯片行业的巨头们带来了新的冲击,他们有的发现自己已经过时了,有的正在极速追赶Google,通过收购的方式拓展自己的产品线,在人工智能芯片市场还未开始论资排辈之前,就先占上一把交椅。 Google:TPU 是什么:TensorProcessingUnit(张量处理单元),是Google开发的专门目的集成电路(ASIC)。 性能:TPU已经开发出了第二代,每颗带宽GB/s,算力达到TFLOPS(8位整数)。 它的模组化能力出众,Google的用法是将4颗TPU放在一块电路板上,组成一个TFLOPS的模组“CloudTPU”,用它们来替换深度学习云机房里的处理器和GPU,单机最多可以拼接块CloudTPU,算力达到惊人的.5PFLOPS(下图)。 用途:前面提到,Google过去用显卡组建大规模计算集群,能耗较高,训练速度较慢,该公司需要一个专门的计算架构,去更高效地训练和运用深度神经网络。所以Google开发了TPU。 TPU于面向大规模低精度的深度学习计算而规划和优化,适合神经网络的训练和推理(在具体用途和场景中运行神经网络)。现在,TPU不仅Google员工的内部工作*,还支持着搜索、照片、翻译、街景等Google旗下产品。就连击败了李世乭、柯洁的围棋人工智能程序AlphaGo,也运行在TPU上。 微软:HPU和“脑波计划”DPU 是什么:HPU是微软在混合现实头显HoloLens里自行规划,并由合作伙伴生产的“协处理器”。具体是用一块FPGA(现场可编程门阵列),一种非常灵活的半定制化电路实现的。 “脑波计划”(ProjectBrainwave)则是微软前不久刚刚宣告的人工智能硬件加速计划,包括一个大量芯片组成的分布式计算架构,和一套直接运行在芯片上的“*作*”。脑波计划的硬件核心是DPU(DNNProcessingUnit),也即深度神经网络处理单元——本质上还是FPGA。 性能:HoloLens一代内置的HPU,能够在W功耗下提供1TFLOPS算力。微软上个月刚刚宣告了新一代HPU,具体细节未知,但可以预料到的是功耗会进一步降低,性能会继续提升。 至于“脑波计划”,它的信息十分有限,但看起来支持多种FPGA,现在微软展示的技术用的是英特尔的纳米制程FPGA。这种芯片单颗计算力约TFLOPS(单精度),功效为GFLOPS/W。 用途:HoloLens一代已经内置了一块英特尔的处理器和集成GPU,为什么它还需要HPU?其实,作为混合现实或者增强现实头显,HoloLens需要确保佩戴者的舒适,降低运动和姿态变化和画面变化的延时,所以它需要结合传感器数据进行海量的计算。但处理器和GPU主要跑*作*(Win)和处理图像,没有多余的算力给传感器。如果让它们来做这部分的计算,不但延时高用户会眩晕,也更费电,还抢走了*作*的算力,提升了蓝屏危险…… HPU就是用来做这部分工作的。而在HoloLens二代里,微软打算让HPU承担更复杂的任务:本地运行深度神经网络。根据有限的信息,HPU二代可以高功效运行类型非常丰富的深度神经网络,为HoloLens加入更多人工智能功能(比如本地图像识别、语音处理等)开了大门。 至于“脑波计划”,从同样有限的信息来看,它应该是微软为扩展自己的人工智能和云计算生态,和GoogleTPU抗衡而推出的。它的用途和TPU应该也不会有太大差异,无外乎对微软自己的产品,以及其团队的科研提供计算支持。微软的云计算服务一直在运用FPGA,所以向“脑波计划”迁移应该比较轻松。它支持微软自己的CNTK深度学习框架,同时也支持竞争对手Google的TensorFlow框架。 英伟达:Tesla深度学习处理器 是什么:英伟达是显卡界的王者,但你可能不知道,现在的显卡功能比玩游戏多多了(别提挖矿!)GeForce是玩游戏的,Titan系列则步入了GPGPU的范畴(可以玩游戏也可以做神经网络训练)。而TeslaGPU则是英伟达专为人工智能开发的专业级服务器端显卡。 TeslaGPU系列最新产品是V,V的命名来自英伟达最新也最*的纳米Volta微架构。 性能:V所采用的Volta架构,是由枚被英伟达命名为“张量核心”(TensorCores)组成的。你不需要明白TensorCores到底是什么,只需要知道它很厉害就行。V的计算性能达到TFLOPS(单精度)、TFLOPS(深度学习),堪称人工智能芯片中的*了。 TensorCores 用途:Google最一开始宣称TPU比GPU快倍,业界对其赞叹有加。但有个细节是,TPU第一代只能推理,不能用来训练神经网络。所以当时英伟达还可以说自己是唯一端到端(从训练到推理再到自动驾驶等实际场景)的人工智能计算方案提供者。而V就是这个方案的硬件核心。 不过英伟达推出V没多久,Google就开了I/O大会,选不了训练和推理都能做的TPU二代。即便如此,V依旧是截至现在最适合神经网络科研的显卡,用通用图形处理器(GPGPU/CUDA)做深度学习这一派的绝对王者。 英特尔:FPGA、显卡、至强融核和VPU 是什么:前面提到了微软在运用的现场可编程门阵列FPGA,正是由英特尔(所收购的FPGA巨头Altera,现在成为了英特尔FPGA部门)所开发的。简单来说,因为FPGA对并行计算支持好,性能高,便于重新编程,功耗比GPU、处理器低,FPGA也是人工智能芯片的一个重要门派(另一家FPGA巨头Xilinx的人工智能产品也很不错,不过篇幅有限就不赘述了)。 英特尔还收购了Nervana,组建了一个人工智能部门。这个部门的研究用的是显卡。 “至强融核”(XeonPhi)是英特尔另一款在服务器端抗衡英伟达GPU的处理器产品。它的最新款产品并行计算好适合深度学习,它的一个最主要优势是“实惠”,不跑深度学习也可以当处理器来用(因为它本来就是处理器)。 VPU则是英特尔收购的另一家爱尔兰公司Movidius所开发的低功耗深度学习加速芯片,特色是超小尺寸和功耗超低。 用VPU制成的神经计算棒 性能:英特尔FPGA产品线较复杂,性能多样。显卡方面的信息也不多 至于XeonPhi,计算力大约在3.5TFLOPS左右? VPU采用该公司自研的Myriad架构,最大的特色是能够在1W或更低功率内,实现GFLOPS甚至更高算力。 用途:如果英伟达一发*毁灭全球,那么英特尔就是通过多元化的产品线尝试在深度学习市场上分一杯羹。FPGA、XeonPhi都是直接推向消费者的云端数据中心里的产品,而身材纤细的VPU用途更多样,安装到了大疆无人机、联想*等产品中,也被英特尔直接做成了即插即用的深度学习计算棒,适合机器人开发等等。 Intel,Processors 其他公司 Facebook:也在开发自己的深度学习芯片,据说在和高通合作。 百度:XPU,本质是FPGA,和Xilinx合作 地平线:前百度深度学习研究院院长,也在开发人工智能定制芯片,应该是FPGA iPhone:没错,iPhone也将在新款定位器里加入“人工智能协处理器”,信息极为有限。