人工智能也有歧视和偏见 (人工智能的不好)
整理分享人工智能也有歧视和偏见 (人工智能的不好),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:人工智能也有歧视性吗,人工智能有弊端吗,人工智能有没,人工智能有好有坏,人工智能也有歧视现象吗,人工智能不行,人工智能有没,人工智能不行,内容如对您有帮助,希望把内容链接给更多的朋友!
▲图片来自:Medium可能你在直觉中也会认识黑人的再犯率会高于白人,但这并不和实际情况相符。在算法看来,黑人的预测风险要高于实际风险,比如两年内没有再犯的黑人被错误的归类为高风险的几率是白人的两倍(%对%)。而未来两年内再次犯罪的白人被错误认为是低风险的概率同样是黑人再犯将近两倍(%对%)。人工智能的偏见,早已深入了各个领域。在AI技术使用领域,面部识别也是一项广泛运用的使用类型,并且这会成为种族和性别偏见的另一个潜在来源。年2月份麻省理工学院的JoyBuolamwini发现,IBM、微软和中国公司Megvii的三个最新的性别识别AI可以在%的情况下准确从照片中识别一个人的性别,但这仅限于白人。对于女性黑人来说,这个准确率会降至%。▲图片来自:FPTUniversity一个最可能的解释是,AI的「偏见」取决于背后训练算法训练的数据,如果用于训练的数据里白人男性比黑人女性更多,那显然白人男性的识别率就会更高。IBM后来宣告他们已经采用了新的数据集并重新训练,微软也表示会采取措施提升准确性。另一个研究是Facebook的人工智能实验室的研究成果,他们发现人工智能的偏见不止存在于国家内部,在不一样国家之间也是存在的。比如当被要求识别来自低收入国家的物品时,Google、微软和亚马逊这些人工智能领域大佬的物体识别算*表现更差。研究人员对五种流行的物体识别算法进行了测验,包括MicrosoftAzure,Clarifai、GoogleCloudVision、AmazonRekogition和IBMWatson。测验的数据集包含了个类别,从鞋子到肥皂到沙发以及更是各样的物品,这些来自于不一样的家庭和地理位置。跨域了从布隆迪(非洲中东部的一个小国家)一个美元月收入的贫穷家庭,到来自乌克兰月收入达到美元的富裕家庭。研究人员发现,与月收入超过美元的家庭相比,当被要求识别月收入美元的家庭时,物体识别算法的误差率大约会增加%,在准确性的绝对不一样上甚至会更大。与索马里和布基纳法索相比,算法识别来自美国产品是准确率要提升-%左右。▲图片来自:StartupThailand这就是问题所在。现在的人工智能背后需要即为大量的数据去训练,尽管人工智能本身不知道「歧视」和「偏见」是什么意思,但背后数据的研究人员却会带有这样的思想,以至于在训练数据的选择上就会产生偏向性。通常情况下,在创建AI算法的过程中会有许多工程师参与,而这些工程师通常来自高收入国家的白人家庭,他们的认知也是基于此阶级,他们教导AI认识世界也是如此。当然这并不是所有原因,在年的一项研究中显示,运用Google搜索「CEO」的图片,其中只有%的人是女性。我知道男性CEO的确比女性CEO比例要多很多,但实际上美国有%的CEO是女性。而匹兹堡卡内基梅隆大学的AnupamDatta领导的另一项研究发现,Google的在线广告*展示的男性高收入工作也比女性多很多。Google对此的解释是,广告客户可以制定他们的广告只向某些用户或网站展示,Google也确实允许客户根据用户性别定位他们的广告。另一大巨头亚马逊也曾遇到过AI歧视的问题。年的时候亚马逊在爱丁堡成立了一个工程团队以寻求一种自动化的招聘方式。他们创建了种计算机模型,通过对过去的入职员工简历进行搜索,然后得出大约个关键词。「当时他们在这个算法上寄予了很大期望,喂给它份简历,然后它会自动吐出前五名,OK,我们就雇佣这些人。」当时一位消息人士是这样告诉的路透社。▲图片来自:MachineLearningTechub然而一年后,工程师们有一些不安的发现——它不喜欢女性。显然这是因为人工智能所获得过去十年的数据几乎都是男性的,因此它得出了「男性更可靠」的看法,并降低了简历里包含女性字样简历的权重。性别偏见还不是这套算法唯一的问题,它还吐出了不合格的求职者。年,亚马逊放弃了该项目。尽管人工智能的「偏见」已经成为一个普遍的问题,但有意思的是,人类又试图运用人工智能技术去纠正人类本身的偏见问题。日前旧金山宣告推出一种「偏见缓解工具」,该工具运用人工智能技术自动编辑警方报告中的嫌疑人种族等信息。它的目的是在决定某人被指控犯罪时,让检察官不受种族偏见的影响。现在该工具已经准备就绪,估计在7月1日正式实施。▲图片来自:Seattletimes根据旧金山地区检察官办公室的说法,这个工具不仅会删除关于种族的描述,同时还会进一步删除关于眼睛颜色和头发颜色等可能有意无意对检察官造成暗示的信息,甚至地点和社区名称也将会被删除。它会运作良好并产生实际的效果吗,现在还不得而知。某种意义上说,现在人工智能的「歧视」与「偏见」是人类意识以及阶级地位的投射。白人精英工程师研究出的人工智能更像「白人的人工智能」和「精英的人工智能」,同理也可以想象,如果是黑人和黄种人主导的人工智能,同样也会对本群体比较有利。▲图片来自:DuduMimran而通过人工智能对人类本身的偏见行为进行纠错则是一项更有意思的尝试,如果该方式确实能缓解人类的偏见,那人类和人工智能可能会在该问题上相互收益,理想情况下能打造一个正向循环。神话故事里上帝摧毁了巴别塔使得人类不再语言文化互通,而人工智能这一改变未来的宏伟技术同样像是一座通天高塔,如果要把它建成全人类的福祉,消除不一样文化造成彼此偏见是一定要搞定的问题。题图来源:FinancialTimes标签: 人工智能的不好
本文链接地址:https://www.iopcc.com/jiadian/50694.html转载请保留说明!