苹果Core ML的机器学习存在隐忧?可有法可解? (苹果core m3)
整理分享苹果Core ML的机器学习存在隐忧?可有法可解? (苹果core m3),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:苹果core2duo是什么处理器,iphone mlc,苹果酷睿m处理器,ios core ml,苹果core2duo,iphone core,苹果core2duo,iphone core,内容如对您有帮助,希望把内容链接给更多的朋友!
苹果CoreML的机器学习存在隐忧?可有法可解? 图 为了保证用户的隐私能够得到保护,CoreML的一切处理都是在本地进行的,这意味着你的数据不会被强制发送至云网络中,被苹果或是其他第三方收集。不过就算是这样,依旧会出现怀疑的声音。 哥伦比亚大学一位名叫SumanJana的安全隐私研究员近日质疑CoreML,认为它的存在会导致用户更多的隐私暴露。他表示,大多数机器学习模型都是无法人为解析的,而且很难对它们进行各种极端状况下的测验。所以,AppStore在审核使用时,比起那些不运用CoreML的使用,它更难“看穿”CoreML使用。如果一个通过CoreML建立的模型有意或无意去泄露隐私信息,AppStore很难发现将它拦下。 这位专业人士举了一个例子:“像是那种照片滤镜或编辑的使用,它会向你请求访问相册的权限。一旦获得许可,如果该使用的开发者不怀好意,那么它就能够利用CoreML来探明你照片的内容,并试图提取重要的信息,比如你运用的产品,你喜欢的活动等等。”他认为,即使开发者没有很大的恶意,他也会根据这些信息向你投放对应的广告。 问题就在于,发生这样的事情,你很难说这锅就应该由CoreML来背。在没有CoreML的时候,任何第三方使用要访问用户的相册时,也依旧需要请求权限。高明的恶意软件能够说服许多用户*这些权限。即使没有基于本地的CoreML,在用户主动*权限,*安全实质上变得更脆弱的时候,攻击者能很轻松地利用服务器端的机器学习模型来获得用户信息。这些都不是很新鲜的技术了。 很重要的一点在于,那些CoreML本来就不能直接访问的数据,任何使用也都不能访问。 在这一点上,一位名叫WillStrafach的苹果iOS安全专业人士说得更明白:“CoreML可能会被滥用,但那也是在使用已经获得完全的照片权限之后的事情。所以如果它们想要窃取你的照片或照片数据,那就意味着你已经同意了这些使用所有的权限请求。” 换句话说,无论CoreML的有无,相似的技术都已经存在,并不是说CoreML的出现才会导致相似的隐私信息泄露。很多时候人们的质疑,更多是因为本能的对新技术的不信任。如果说在过去这样的隐忧都没有闹出大问题,CoreML时代也不大可能会因此出事。当然最重要的,还是我们自己要注意那些可疑的迹象。