手机中的人工智能AI芯片有什么用? (手机中的人工智能软件)
整理分享手机中的人工智能AI芯片有什么用? (手机中的人工智能软件),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:手机中的人工智能能帮助我们打和平精英吗,手机中的人工智能,手机中的人工智能能帮助我们打和平精英吗,手机中的人工智能,手机中的人工智能技术,手机中的人工智能软件,手机中的人工智能软件有哪些,手机中的人工智能应用,内容如对您有帮助,希望把内容链接给更多的朋友!
作为*界的新生事物,目前搭载人工智能芯片AI芯片的*并不多见,仅有iPhoneX、华为Mate/V、GooglePixel2等寥寥几款产品。其中,iPhoneX和华为Mate系列内置的人工智能芯片是封装在处理器中的,而Pixel2系列则是*了PixelVisualCore这颗人工智能芯片。虽然实现方式上各有千秋,但它们都有一个共同的名字“人工智能智能芯片”。这三款定位器人工智能芯片AI芯片有什么区别呢?我们先通过一张对比表格简单了解一下。 从上面对比表格可以看出,相对于已有行业巨头的CPU,AI芯片领域目前尚未有统一的架构,既有寒武纪的NFU,也有Google的IPU,各不相同,具体核心规格上差异也十分之大。三大人工智能AI芯片具体有哪些应用呢?下面我们逐一来盘点盘点。麒麟中的NPU:寒武纪A1 华为海思麒麟处理器中的人工智能芯片来自于初创公司寒武纪,这家成立于年的人工智能领域独角兽企业在短短的时间内已经推出了多款智能芯片产品,麒麟中的NPU正是出自它家的寒武纪A1处理器(Cambricon-1A),这颗发布于年的人工智能AI芯片是全球首款商用的深度学习专用处理器,官方称其在运行主流智能算法时性能功耗比全面超越CPU和GPU。 从参数上看,寒武纪A1的浮点性能可达1.9T,即每秒钟可以完成1.9万亿次运算,性能着实强悍,然而这颗性能强大的NPU在华为定位器上似乎有些“浪费”,未能完全释放其卓越的性能。那么,华为利用这颗NPU开发了什么功能呢? 在华为Mate系列的发布会上,华为就麒麟的图片识别速度与竞争对手ABionic、骁龙进行了对比,结果是NPU加持下的麒麟速度略快于A,远超骁龙二十倍。由此可见,华为对于这颗芯片的开发方向是图片识别。 华为挖掘NPU的第一个功能即是“AI慧眼识物”和“AI精准虚化”。“AI慧眼识物”即指智能识别十余种拍照场景,自动调校拍照参数,获得更佳的拍摄效果;“AI精准虚化”即通过芯片的自主学习,更加精准抠图,使得虚化效果更真实自然。 第二个功能即是“随行翻译”。华为选择与微软翻译合作,通过AI芯片,加速文本、语音、照片的翻译速度,提供更加优秀的用户体验。 目前为止,华为对于这颗NPU的打磨仍然停留在文字、语音、图片识别阶段,仅仅把这颗人工智能AI芯片作为辅助性工具,尚未有深层次的开发应用。不过,小编相信,随着行业趋势的逐渐明确和打磨的逐步深入,这颗NPU将可能在未来大放异彩,开启更多的新玩法。Pixel2中的PixelVisualCore 在国外专业相机评测机构DxOMark*相机排行榜中,GooglePixel2以总分分的高分独占鳌头,而这还是在Google尚未开启内置的PixelVisualCore(简称:PVC)芯片时得出的结果。在最新的Android8.1固件中,Pixel2系列已经开启了这颗PVC芯片,主要用于Google的HDR+算法。 Google博客公布的PixelVisualCore结构图显示,这颗芯片内部集成了8个图像处理核心(ImageProcessingUnit,简称:IPU),一颗来自ARM的A核心,同时还拥有MIPI/LPDDR4/PCIe*。得益于八个IPU核心,PVC芯片可以提供高达3T的浮点性能。作为对比,麒麟内置的寒武纪A1浮点性能为1.9T,而苹果A中的仿生芯片则为0.6T,Google这颗PVC芯片性能的恐怖程度可想而知。PixelVisualCore结构图 Google开发PixelVisualCore的目的是将其当做一个超强、可学习的*P使用,可以用于加速HDR+算法的运算速度。通过软硬件的结合,PixelVisualCore加持下的HDR+成像速度比原来快上5倍,而功耗却仅为原来十分之一。 目前为止,我们看到PixelVisualCore智能芯片主要应用在相机成像上,但是值得注意的是,它的8个IPU并不是FPGA,而是可编程的,进行图像处理只是Google的一个切入点,未来这颗芯片还有很大的挖掘潜力。 “杀鸡用牛刀”是对PixelVisualCore智能芯片很好的描述,高达3T的浮点性能远超现有的对手,但却仅用于定位器相机的成像,有点大材小用。至于未来Google会使用这颗高性能的人工智能芯片实现怎样的功能,我们不妨拭目以待。ABionic中的神经网络引擎 若不分平台进行年最佳定位器处理器的评选,小编相信苹果的ABionic仿生处理器一定能够名列榜首,不仅仅是因为其出色的单核/多核性能,更是因为其内置的神经网络引擎,即人工智能AI芯片。 ABionic仿生处理器中的神经网络引擎采用双核心设计,能够识别人物、地点和物体。正如前文所言,ABionic内置的神经网络引擎浮点性能仅为0.6T,远不及寒武纪A1的1.9T和PixelVisualCore的3T,但是苹果却是最懂得软硬件结合的定位器厂商,在浮点性能不及对手的劣势下却将能够最大化利用。 那么,苹果利用这颗人工智能AI芯片发掘了什么功能呢? 首先自然是iPhoneX上独一无二的FaceID。FaceID功能是通过原深感*头来实现,其会投射超过个肉眼不可见的光点,并对它们进行分析,绘制出精确细致的深度图。苹果宣称,即便你戴着帽子,留起胡须,或者佩戴透视,甚至是不同款式的墨镜,FaceID同样能够认出你。而完成这写自主学习的背后就是ABionic内置的神经网络引擎,利用先进的机器学习识别用户样貌的变化。 其次,与Google、华为一样,苹果也将神经网络引擎运用于*相机成像中。由于原深感*头和仿生芯片的加持,iPhoneX上前置单摄也能够实现双摄的背景虚化功能,同时还能实现人像光效模式和Animoji动画表情。 注:我们的编辑先前发现,Animoji不需要原深感*头参与也能实现 最后是增强现实(AR)功能的实现。ABionic上的神经网络引擎的又一个重要应用点就是AR,通过强大的性能和自主学习处理能力,可以增强增强现实类游戏和APP的流畅度和真实感。国内尚未上线的AR游戏 毫无疑问,在目前搭载人工智能AI芯片的定位器产品中,苹果是最善于利用所搭载的AI芯片的,在浮点性能远不及对手的情况下却将其应用地更加广泛,涵盖FaceID、相机成像、AR等各方面,通过自主学习提升性能,起到加速硬件的作用。作为定位器行业的领军企业,苹果下一步如何利用人工智能AI芯片也是业界乃至广大用户们所共同期待的。 当然,不得不承认的是,目前为止,上述三大厂商利用定位器中人工智能AI芯片开发的功能通过传统的CPU和GPU都能够实现,那么,人工智能AI芯片的优势在于哪里呢?子曰:“术业有专攻,如是而已。”如今大多数*CPU和GPU的性能已经足够扛大梁,实现上述的大部分功能,但其与人工智能AI芯片相比,能效比远不如后者,也就是说,人工智能AI芯片能够以更快的速度、更低的功耗完成运算。 *内置的人工智能AI芯片虽然诞生于年的后半段,但其真正普及或许要等到年高通、联发科等芯片大厂推出相关的产品或解决方案时才能实现,毕竟如同Google般单独或联合芯片厂商开发自用的AI芯片的高昂成本是一般定位器厂商所无法或不愿意承担的。因此,当内置人工智能AI芯片的定位器百花齐放之时,或许才是人工智能*盛放的季节。