• 服务热线:0755-84872125
  • wangyp@shangeai.com

人脸识别技术准确率尚低 还存在很多问题

时间:2019-03-29 11:49:36点击:39次

吉米戈麦斯是加州民主党人,哈佛大学毕业生,也是少数在美国众议院任职的西班牙裔立法者之一。

但在亚马逊的面部识别系统里,他被识别为一个潜在的罪犯。

戈麦斯是28名美国国会议员中的一员,与被逮捕的人的照片完全匹配,这是去年美国公民自由联盟对亚马逊重新认知计划进行测试的一部分。

亚马逊被警方使用工具中将近有40%的虚假匹配,涉及有色人种。

这些发现被公民自由团体,立法者甚至一些科技公司越来越多的关注,随着技术变得更加主流,面部识别可能会伤害少数人种。iPhone和Android手机上已经开始使用面部识别技术进行解锁,警察、零售商、机场和学校也在慢慢接触它。但是研究表明,面部识别系统更难以识别女性和肤色较黑的人,这可能导致灾难性的误报。

“这是一个例子,说明技术在执法领域的应用如何对已经过度监管的社区造成有害后果,”北加州ACLU的技术和公民自由律师Jacob Snow说。

面部识别有它的好处。马里兰州的警察利用这项技术在首都公报的大规模枪击案中找出了一名嫌犯;在印度,它帮助警察在四天内识别了近3000名失踪儿童;Facebook使用该技术为视障人士识别照片中的人物;它已成为解锁智能手机的便捷方式。

但这项技术并不完美,而且还有一些尴尬的失误。谷歌照片曾将两个黑人识别成大猩猩。在中国,一位女士声称她的同事能够使用Face ID 解锁她的iPhone X。当执法机构使用面部识别来识别犯罪嫌疑人或在抗议中揭露人们时,被误认的风险就会增加。

“当执法部门使用这项技术确定某人是否因犯罪而被通缉时,那就是完全不同的情况,”戈麦斯说,“错误的身份有可能会导致执法部门和那个人之间发生致命的互动。”

立法者对ACLU的调查结果并不感到震惊,并指出科技工作者通常更多地考虑如何使某些东西发挥作用,而不是关于他们构建的工具如何影响少数人种。

科技公司通过改进用于培训面部识别系统的数据来回应批评,但与民权活动家一样,他们也呼吁更多的政府监管,以帮助保护技术不被滥用。乔治敦大学法学院的研究人员估计,每两名美国成年人中就有一名被用于执法人员使用的面部识别网络。

亚马逊不赞同ACLU研究,认为组织在测试识别系统时使用了错误的方法。

“机器学习是一个非常有价值的工具,可以帮助执法机构,虽然可能存在误判,我们不能因为设定了错误的温度导致烤焦了披萨而扔掉烤箱。”人工智能总经理Matt Wood在亚马逊网络服务公司的一篇博文中辩解道。

识别问题

与白人男性相比,面部识别服务可能更难以识别少数民族和女性,这有多种原因。

乔治城法学院隐私与技术中心的高级助理克莱尔加维说,科技工作者用来训练计算机识别面孔的公开照片可能包括比白人更多的白人。例如,如果一家公司使用名人数据库中的照片,那么它就会倾向于白人,因为好莱坞的少数人种人数不足。

Garvie说,科技公司的工程师,大多是白人,也可能在不知不觉中设计面部识别系统,以更好地识别某些种族。研究表明,人们更难以识别另一个种族的面孔,并且“跨种族偏见”可能会渗入人工智能。她还补充说,对于深色皮肤缺乏色彩对比的问题,以及女性使用化妆品来掩盖皱纹或头发不同的问题,都存在挑战。

根据麻省理工学院媒体实验室的研究人员进行的一项研究,微软,IBM和Face ++制作的面部识别系统很难确定像非洲裔美国人这样的黑皮肤女性的性别。35%的黑皮肤女性的性别会被误认为是高加索人等1%的浅肤色男性。

麻省理工学院于1月份发布的另一项研究表明,亚马逊的面部识别技术比微软或IBM确定黑皮肤女性性别的工具更难。

科技公司的作用

亚马逊对麻省理工学院的研究结果提出了质疑,一名女发言人指出,该研究称这项研究“具有误导性”。研究人员使用“面部分析”来识别面部特征,如性别或微笑,而不是面部识别,将人脸与照片或视频中的相似面部相匹配。

“面部分析和面部识别在底层技术和用于训练它们的数据方面完全不同,”伍德在一篇关于麻省理工学院研究的博客文章中说。“尝试使用面部分析来衡量面部识别的准确性是不明智的,因为它不是用于此目的的预期算法。”

这并不是说科技巨头没有考虑种族偏见。

微软去年表示,它将识别女性和肤色较深的男性的错误率降低了20倍。

Facebook发言人使用面部识别技术在照片中标记用户,该公司表示,该公司确保其使用的数据“平衡并反映出Facebook的用户的多样性”。谷歌指出了它发布的关于人工智能的原则,其中包括禁止“制造或加强不公平的偏见”。

为了推进面部识别的公平性和准确性研究,IBM于1月份为研究人员发布了一个名为Diversity in Faces的数据集,该数据集不仅仅关注肤色,年龄和性别。该数据包括100万张人脸图像,注释有面部对称,鼻子长度和前额高度等标签。

“我们拥有所有这些关于多样性意味着什么的主观和松散概念,”IBM的首席科学家约翰史密斯说。“因此,IBM创建此数据集的目的是深入研究如何真正衡量面孔多样性的科学。”

该公司收集了照片网站Flickr的图片,本月受到一些摄影师,专家和活动家的批评,因为他们没有通知人们他们的图像被用来改善面部识别技术。作为回应,IBM表示严肃对待隐私,用户可以选择退出数据集。

亚马逊表示,它使用反映多样性的培训数据,并向客户介绍最佳实践。今年2月,它发布了一些指导方针,称立法者在考虑监管时应考虑到这一点。

亚马逊全球公共政策副总裁迈克尔·庞克在一篇博客文章中说:“所有相关各方之间应该进行公开,诚实和认真的对话,以确保技术得到适当应用并不断加强。”

需要明确的规则

即使科技公司努力提高其面部识别技术的准确性,人们对这些工具可用于歧视移民或少数民族的担忧也不会消失。在某种程度上,这是因为人们仍然在个人生活中与偏见搏斗。

民权组织和专家认为,执法部门和政府仍然可以利用这项技术来识别政治抗议者或追踪移民,使他们的自由处于危险之中。

“完美准确的系统也成为一种非常强大的监控工具,”加维说。

民权组织和科技公司呼吁政府介入。

“管理政府使用技术的唯一有效方法是政府主动管理这种用途,”微软总裁布拉德史密斯在7月的一篇博客文章中写道。“如果人们担心如何在整个社会中更广泛地部署技术,那么规范这种广泛使用的唯一方法就是让政府这样做。”

美国公民自由联盟呼吁立法者暂时禁止执法部门使用面部识别技术。民权组织还致信亚马逊,要求它停止向政府提供Rekognition。

一些立法者和科技公司,如亚马逊,已经要求评估面部识别技术的国家标准与技术研究所认可面部识别的种族偏见测试的行业标准和道德最佳实践。

对于像戈麦斯这样的立法者来说,这项工作才刚刚开始。

“我不反对亚马逊,”他说。“但是当一种新技术会对公民的隐私、他们的公民自由产生深远影响了,那么它一定是有问题的。”