公共服务中的AI必须是负责任的
在公共生活委员会委员会看着人工智力(AI)的风险委员会的一份新报告建议融入AI治理框架。
根据人工智能和公共标准报告,自动化决策将彻底改变公共部门的许多以人为际的行政任务。该报告指出,AI的使用须经一般数据保护法规(GDPR),行政法等等行为的规定。
该报告建议,政府和监管机构建立了一项连贯的监管框架,规定了关于如何在公共部门使用AI的明确法律边界。“监管机构还必须为改变为公共部门的做法做好准备,”它说。“我们得出结论,英国不需要特定的AI监管机构,但所有监管机构都必须适应AI对其特定部门构成的挑战。”
在报告中发表的Deltapoll的投票,发现2016年调查的69%的调查对于AI决策,如果一个人为决定是最终决定的。引用“信息委员会的办公室AI审计框架”,其特征和公共标准报告说:“审稿人必须”重量“和”解释“建议,考虑所有可用的输入数据,并考虑其他其他因素。”
该报告的作者建议政府为数据伦理(CDEI)建立了一个数据伦理中心,作为协助AI领域的监管机构的监管保证中心。
公共生活标准委员会主席Jonathan Evans谈到BBC的今天,说:“我们相信AI将在公共部门进行使用。我们需要认真考虑AI如何在公共生活的七项原则中所列出的测试 - 透明度,客观性和问责制等。“
埃文斯建议公众有权询问如何在公共服务中使用AI。“作为公众的成员,您担心您的信息正在使用或通过使用人工智能提供您的服务,然后在政府和公共服务上努力让您知道,”他说。
埃文斯承认,这些请求可能属于现有的信息框架自由,但建议政府也应该更积极主动。“很难找出正在使用什么算法,并且在哪里,这是一个重要的失败,”他说。“我们认为任何机构应该使用AI的主动声明,以便人们可以快速轻松地了解[此信息]。”
回复报告,影子数字部长智武拉说:“在公共部门的使用AI方面,保守党政府失败了开放和透明度。去年,我争论在议会中,政府不应接受在决策过程中的进一步AI算法,而不会引入进一步的监管。
“我将继续推动政府进一步分享关于AI目前在各级政府中使用的信息。正如本报告所示,迫切需要实际指导和可执行的规定工作。现在是行动的时候。“
报告称,AI系统使决策的效力完全取决于所使用的培训数据集。“即使在良好的意图引入AI的地方,质量差的数据或缺乏关于AI系统如何运作的知识也将导致不需要的结果,”它说。“公共机构应该在不同的人口组上定期重新测试并验证他们的模型,以观察任何群体是否正在系统地优缺点或弱势,因此他们可以在必要时更新他们的AI系统。”
BILL MITCHELL是BCS政策总监,已添加特许研究所,补充说:“在计算机科学上有一个非常古老的格言,总结了支持AI支持的公共服务的许多问题:'垃圾进垃圾出。'换句话说,如果将差,部分,有缺陷的数据放入计算机中,它会盲目地遵循其编程和输出差,部分,有缺陷的计算。
“AI是一种统计推理技术,可以通过示例学习。这意味着如果我们允许AI系统从“垃圾”示例中学习,我们将最终获得一个统计推断模型,它非常擅长产生“垃圾”推论。“
Mitchell表示,该报告强调了让佩戴队伍的重要性,这些团队将有助于使公共当局更有可能确定AI项目的任何潜在的道德陷阱。“许多贡献者强调了普遍性的重要性,告诉委员会认为佩戴球队会导致更多的佩戴思想,而且,这反过来,这将有助于公共当局确定AI系统的任何潜在的不利影响,”他说。
该报告敦促政府在市场上使用其购买力,以确定采购要求,以确保为公共部门开发AI系统的私营公司妥善解决公共标准。该报告建议,应通过确保在采购进程的早期考虑道德标准的规定,并明确地撰写招标和合同安排。