KuppingerCole说,开始思考AI监管的时间
Karsten Kinast,法律专家喀斯滕Kinast表示,它甚至没有共同的定义或充分了解它,甚至没有共同的定义或足够的理解,并没有太早思考并致力于全球共识。和kuppingercole的分析师。
“如果我们确保AI能够为社会带来最大利益,我们需要确保在实际上尽快推出监管,并且在为时已晚之前,我们遇到了最终与混合的风险无效,脱节规则,“他每周告诉计算机。
Kinast说,社会中每个人都应该在社会中工作的第一步是开始了解AI的主题,如何适应我们的工作和私人生活以及对此的影响是什么。
“我们需要评估我们现在的位置,我们可能在不久的将来以及我们可以在我们开始规范之前找到自己的可能种类的情况,”他说。
“这是必须在各级公开讨论和社会分支机构的议程上的议程,以便我们可以就我们想发生的事情达成共识,因此我们避免了通过移动技术出现的情况,他们规范了我们的生活。“
Kinast表示,许多人已经依赖于移动设备并不会想到没有他们离开家。“我们不再记得我们过去所做的方式,因为没有必要,但没有必要,但没有人真正做出了意识地决定停止这样做 - 它刚刚发生了,”他说。
利益影响人类的潜力远远大于移动设备,这就是为什么围绕AI的目标和潜在影响达成共识,以确保针对旨在的调节的一致和协调方法是重要的实现这些目标。
“这需要以全球和不热情的方式接近,以便我们可以提出一系列关于AI的共同基本规则,以后通过更详细的规则随后随访,因为我们的理解增长,”他说。
Kinast认为这是重要的,不仅要确保达到AI的积极目标,而且还可以确保不允许单一技术公司或一小组技术公司主导规则和AI议程。
现在是开始准备搬迁到AI的监管的时候,在能够真正学习的AI之前,这是一个真实的,并且该技术能够设定自己的规则或修改现有规则,而不是遵守遵守规则并设定和设置由人类社会。
欧洲委员会通过在AI的道德应用上发布一系列原则,并宣布了一个主要的飞行员,其中将适用指导方针,但这只是较大的图片的一小部分,这是Kinast表示。“更多需要在全球范围内完成,”他补充道。
“曾经真正的自学AI是一个现实,开始试图规范它会为时已晚,但在此期间,我们需要以同样的方式对我们进行监管我们,技术已经在规范我们的沟通方式,我们想想,我们如何寻找问题的解决方案以及我们如何与他人互动。“
Kinast表示,当社会将有知识和机会设定规则来制定普通目标时,将在未经太远的未来进行一段时间。“在AI开始规范美国并影响我们的决定和行动之前,我们将需要规范AI,”他说。
Kinast将在题为AI全球比赛的演示文稿中更详细地讨论这个主题 - 现在是时候调节了吗?除了在慕尼黑14至17日,2019年欧洲身份与云大会上的AI规定小组讨论。