工会驱动程序呼吁微软暂停超级脸部API许可证
在演出经济中工作的司机和快递联会呼吁微软将其面部验证系统暂停到优步后,在指控司机已经错误地在错误识别后被错误停用。
App Divers和Courier的Union(ADCU)及其相关数据信托工作者信息交易所(WIE)表示已确定七件Uber司机丢失工作的案例,随后由于伦敦(TFL)而撤销的许可证公司的实时ID检查面部验证系统未能识别他们的脸部。
作为2021年3月初的有线调查的一部分,另外14个优步饮食着与记者安德鲁科斯利共享证据,这些证据显示了该技术如何未能认识到他们的面孔,导致终止和账户关闭威胁。
实时ID检查系统使用Face API,由Microsoft开发的脸部API,可用于面部验证或识别,并基本上充当比较工具,在登录时检查快递和驱动程序的自拍在优步数据库中的照片确认他们的身份。
虽然面部识别是一个达到的过程,但由于缺乏关于它在发生时的知识,面部验证是一个一对一的过程,其中inpidual知道正在进行的生物识别处理并通过个人设备发出信息,积极参与它。
“伦敦的大约94%的许可私人租用司机是击球[黑色,亚洲和陌生人物],微软公开承认其面部识别系统与女性和颜色人民一起使用时,其面部识别系统的失败率高达20%,”阿德苏总统雅林总统说。
“成千上万的无辜人民将失去工作和面部许可行动,如果Uber使用这个种族主义软件不会停止。英国的私人租赁司机已经通过超优步利用了,没有Microsoft加入问题“Yaseen Aslam,Adcu“基于这些统计数据,并通过我们目前的案例,成千上万的无辜人民将失去工作和脸部许可行动,如果Uber使用这个种族主义软件并没有停止。UBER没有Microsoft增加了这个问题,英国的私人租用司机已经足够了。“
浅析联盟的指控,Microsoft发言人表示,该公司“致力于测试和改进面部API,特别关注人口统计群体的公平性及其准确性”。
“我们还向客户提供详细指导,以获得帮助他们在其系统中评估公平性的最佳结果和工具。”
UBER发言人添加了系统,旨在通过确保正确的驾驶员或快递在使用该帐户来保护乘客的安全性和安全性。
“虽然没有技术或过程是完美的,但总有所改进的空间,我们相信技术,结合彻底的过程,以确保在任何决定删除司机的任何决定前至少有两项手工审查,是公平和重要的为了我们的平台的安全性,“他们说。
在2021年3月,在法律程序期间,司机正在寻求更加访问其个人数据后由优步审计失效,荷兰法院裁定,虽然有足够的人类干预来发现公司的决定并没有完全自动化,但它仍然需要给予两名司机被指控访问它用于制定决策的数据的“欺诈活动”。
Adcu已经写信给伦敦市长,要求根据优步识别系统产生的证据,要求所有TFL私人租赁驾驶执照撤销被立即被审查。
联盟进一步声称,优步赶紧在2019年末决定之后担任识别系统,以赢得其伦敦运营许可证,即未经授权的司机使用该平台将不再续签。
Uber在2020年9月在其许可上诉期间给予监管机构的证据表明,由于公司的手动识别过程中的失败,它已开始从2020年4月开始推出实时ID检查系统。
“TFL对[优步]有关此产品的建议感兴趣。产品和TFL支持任何技术通过确保驾驶员通过TFL许可并允许使用优步应用程序来增加乘客安全的任何技术,“在她的见证声明中写下TFL的许可,监管和充电总监,Helen Chapman 。
她补充说,TFL于2020年3月从优步获得系统的数据保护影响评估(DPIA)。
“我考虑使用这个产品朝着正确的方向迈出的一步,尽管它的实施仍然是在一个很早期的阶段。因此,我无法对这一阶段有意义地评论它的有效性,“查普曼说。
詹姆斯法拉尔··菲拉尔(James Farrar)Adcu的Wie and Co-Noter of Adcu主任表示,在一部分的平台试图转向“更隐藏的算法控制形式”和部分地区由RFL等调节器的压力。
“优步队已经赶紧实施微软提供的缺陷面部识别系统,并将其用于70,000强大的劳动力,它已经熟悉利用,但没有适当的保障措施,”他说。“微软一定没有卡车与优步对弱势工人的开发[和]必须暂停超级许可证立即使用此解决方案。”
2018年,麻省理工学院的研究表明,微软的面部识别和检测系统 - 特别是由优步使用的面部API - 具有性别和种族偏见,发现它在识别女性或具有较深皮肤的人时出现更高的错误率。
“如果商业公司建立真正公平,透明和负责任的面部分析算法,则在性别分类系统中分类较深的女性,较浅的女性,较浅的男性,较浅的男性和较轻的男性的大量差异需要紧急关注,”作者Joy Buolamwini和Timnit说Gebru。
2020年6月20日,微软 - 与亚马逊和IBM一起 - 将其面部识别技术销售给美国执法机构,以应对5月25日在乔治·弗洛伊德警察谋杀的大众抗议活动。
微软总统布拉德史密斯当时说:“我们不会向美国的警察部门出售面部认可技术,直到我们有国家法律,基于人权,这将管理这项技术。”
史密斯以前在2019年1月告诉ITV,这是当前形式的技术的挑战之一是“它对男性的女性也不适合女性,它也不适合颜色的人,添加更有可能找到错误,不匹配,通常“未能识别”这些群体的人。