英伟达的STEAL AI让神经网络拥有更好的计算机视觉 (英伟达的老板是谁)
编辑:rootadmin
来自英伟达(Nvidia)、多伦多大学(UniversityofToronto)和多伦多矢量人工智能研究所(VectorInstituteforArtificialIntelligence)的研究人员规划了一种方式,可以更精确地探测和预测物体的起点和终点。这些知识可以改进现有计算机视觉模型的推理,并为未来的模型标记训练数据。在研究人员的实验中,语义细化的边缘对齐学习(steal)能够将最先进的casenet语义边界预测模型的精度提升4%。更精确地识别物体的边界可以使用于计算机视觉任务,从图像生成到三维重建到物体检测。STEAL可用于改进现有的CNNs或边界检测模型,但研究人员还认为它可以帮助他们更有效地标记或注释计算机视觉模型的数据。为证明这一点,STEAL方式用于改进城市景观,这是年首次在计算机视觉和模式识别(CVPR)会议上引入的城市环境数据集。在GitHub上,STEAL框架以像素为单位学习和预测对象边缘,研究人员称之为“主动对齐”。“在训练过程中对注释噪声进行明确的推理,以及为网络提供一个从端到端排列不当的标签中学习的分级公式,也有助于产生结果。”据arXiv报道,研究者在4月发表的一篇*中说:“我们进一步表明,我们预测的边界比最新的DeepLab-v3分割输出得到的边界显著更好,同时运用了更轻量级的架构。”并在6月9日进行了修订。“魔鬼就在边缘:从嘈杂的注释中学习语义边界”将在本周于加州长滩举行的CVPR年会议上分享。英伟达在今天的一篇博客文章中说,近篇部分由英伟达研究公司撰写的研究*将在会议上以口头陈述的形式分享。