GDPR对AI黑匣子的挑战
ChoftagaG的主要顾问Alessandro Guarino表示,由个人合理的机器学习系统推动的机器学习系统遵守欧盟的一般数据保护条例(GDPR)。
GDPR适用于所有自动化的融合决策和分析,目前是人工智能(AI)和专门的机器学习算法最常见的应用,他告诉EEMA ISSE 2018年在布鲁塞尔网络安全会议。
GDPR定义了以个人数据的任何形式的自动处理形式,包括使用个人数据,以评估与自然人有关的某些个人方面,特别是分析或预测关于自然人在工作,经济状况,健康方面的表现的方面的方面,个人喜好,兴趣,可靠性,行为,位置或动作。
然而,GuARINO表示存在问题,因为大多数这些机器学习决策系统是“黑匣子”而不是基于旧式的规则的专家系统,因此未能遵守GDPR的透明度,问责制和投放的GDPR要求控制中的数据。
“问责制是GDPR的主要基本原则之一,对机器学习算法构成了一个非常大的问题,特别是对于较新的工具索赔学习和自动特征提取,因为我们不知道如何进行评估或有什么功能正在使用[数据点],“他说。
GuARINO表示,通过数据推动机器学习模型,特别是个人数据。这意味着存在隐私风险,这些风险必须以尊重习惯性的伦理和不同意监测或歧视而致密的道德方式。
盖诺诺的另一个问题是,GuARINO是,GDPR适用于欧盟外部的数据控制器,该数据控制器处理欧洲公民的个人数据,但在CONSTRIESSUCH作为美国,数据不是由数据受试者自己控制的法律,但提供的数据成为财产本公司,这意味着它们可以重用或转售数据。
他说,开发人员和供应商需要采用基于风险的方法,因为GDPR没有核对表,而是需要处理个人数据以评估数据科目的风险,并对它们如何处理该数据来处理数据控制器。
“我们需要找到一种方法来以符合GDPR的方式设计和使用机器学习算法,因为它们将为服务提供商和数据主体的值生成值,如果正确完成,”Guarino表示。
“该算法需要以某种方式负责,但尚不清楚如何完成这一领域的研究仍在继续。他说,机器学习过程不能被视为黑匣子,并且必须明确他们到达决策的方式。“
“机器学习过程不能被视为黑匣子,并且必须明确他们如何达到决策”Alessandro Guarino,StudioAg为了符合GDPR,GuARINO表示,所有使用个人数据的产品和服务都可以使用隐私和数据保护。“必须记录和证明该过程以满足透明度和问责制的要求。”
GDPR数据最小化的原理,即GuARINO,对机器学习算法也是一个潜在的挑战,因为需要任何处理活动来仅处理特定目的所需的数据。
“但是在机器学习中很难做到这一点,因为模型需要尽可能多的数据,因此系统开发人员将不得不注意从一开始就关注数据管理,”他说。
通常,GDPR禁止自动分析,除非满足三种特定条件之一。“这种方法非常严格,而最实际的条件是从有关杀戮的明确同意,”瓜里诺说。
“其他条件是,履行合同的履行是必要的决定,或者欧盟或成员国法律授权的决定,但更难以满足而不是明确的同意,”他说。
GuARINO的挑战是,GuARINO,是从头开始设计和开发符合GDPR标准的机器学习系统,特别是当它们是预测或用于支持关于数据主体的决策时。
“现实是,这类现有的大多数应用程序必须根据设计和问责制根据隐私原则重新设计或重新设计。
“这意味着开发人员必须在设计过程中记录他们所做的一切,包括数据管理等,特别注意展示算法是公平的或中立的,因此不是歧视性的,”他说。
该算法是公平且透明的要求比人类决策在许多情况下,盖诺州的巨型措施可以歪斜市场,这可能是不采用的创新系统或采用“弱化AI”。
虽然机器学习系统可以被设计为符合GDPR,但他说它不会简单,并且需要很多工作。
“它意味着思考大数据和机器学习的方式,并且需要跨学科的能力,因为我们不仅需要开发人员,而且还需要领域专家以及法律和数据保护专家,所以它将有趣看看未来会带来什么以及GDPR可以达到多远。“