当前位置:首页 > 生活常识 > 正文

英国政府对公众使用的人工智能工具是“种族主义和偏见”

  

  

  

  中央政府使用的人工智能和算法工具将在公共登记册上公布,此前有人警告称,这些工具可能包含“根深蒂固的”种族主义和偏见。

  官员们本周末证实,活动人士对所谓的保密和偏见风险提出质疑的工具将很快公布。这项技术已被用于各种目的,从试图检测假婚姻到根除欺诈和福利索赔中的错误。

  此举是活动人士的一次胜利,他们一直在挑战人工智能在中央政府的部署,因为这项技术可能会在公共部门迅速推广。公共法律项目(PLP)的高级研究员卡罗琳·塞尔曼(Caroline Selman)表示,这些系统的存在、细节和部署都缺乏透明度。“我们需要确保公共机构发布有关这些工具的信息,这些工具正在迅速推出。采用合法、公平和非歧视的技术符合每个人的利益。”

  2020年8月,英国内政部同意停止使用计算机算法来帮助分类签证申请,此前有人声称该算法包含“根深蒂固的种族主义和偏见”。在移民福利联合委员会(Joint Council for the Welfare of Immigrants)和数字权利组织Foxglove提出法律挑战后,官员们暂停了该算法。

  毛地黄公司称,一些国籍的人会被自动贴上“红灯”风险评分,这些人更有可能被拒签。它表示,这一过程相当于种族歧视。

  去年,该部门还因一种算法工具遭到质疑,该工具用于检测用于破坏移民控制的假婚姻。PLP表示,它似乎会歧视某些国家的人,向慈善机构披露的一份平等评估显示,保加利亚人、希腊人、罗马尼亚人和阿尔巴尼亚人更有可能被纳入调查。

  政府的数据伦理与创新中心(现为负责任的技术采用部门)在2020年11月的一份报告中警告说,有很多例子表明,新技术“根深蒂固或放大了历史上的偏见,甚至创造了新形式的偏见或不公平”。

  该中心于2021年11月为部署人工智能和算法工具的公共机构帮助制定了算法透明度记录标准。它建议将与公众互动或对决策有重大影响的模型公布在登记册或"存储库"上,并详细说明如何和为什么使用这些模型。

  阅读更多

  到目前为止,在三年的时间里,只有9条记录被发表在该数据库上。这些模型都不是由内政部或工作和养老金部(DWP)运营的,它们运营着一些最具争议的系统。

  上届政府在今年2月就人工智能监管的咨询回应中表示,将要求各部门遵守报告标准。英国科学、创新和技术部(DSIT)本周末证实,各部门现在将根据该标准报告该技术的使用情况。

  DSIT的一位发言人说:“技术在改善公共服务方面具有巨大的潜力,但我们知道,重要的是要保持正确的保障措施,包括适当的人为监督和其他形式的治理。”

  “算法透明度记录标准现在对所有部门都是强制性的,一些记录将很快公布。”我们将继续探索如何将其扩展到整个公共部门。我们鼓励所有组织以通过工具、指导和标准建立公众信任的方式使用人工智能和数据。”

  各部门可能会面临进一步的呼吁,要求披露更多有关其人工智能系统如何工作的细节,以及为减少偏见风险而采取的措施。DWP正在使用人工智能来检测普遍信贷索赔中的潜在欺诈行为,并且正在开发更多的人工智能来检测其他领域的欺诈行为。

  阅读更多

  在其最新的年度报告中,该公司表示,已对其在通用信用预收索赔中使用人工智能进行了“公平性”分析,没有“立即出现任何歧视担忧”。DWP没有提供其评估的任何细节,因为担心公布可能“让欺诈者了解该模型的运作方式”。

  PLP支持对DWP使用该技术采取可能的法律行动。它正在敦促该部门详细说明它是如何使用的,以及采取了哪些措施来减轻损害。该项目已经编制了自己的政府自动化决策工具登记册,迄今已追踪到55种工具。

有话要说...