AI道德应该从何而来?新研究称不是医学

随着人们对AI破坏性潜力的担忧日益加深,近年来,AI伦理逐渐兴起。对隐私,透明性和算法以意想不到的方式扭曲社会和政治话语的能力的担忧导致公司,政府,甚至超国家组织纷纷发表有关如何进行道德AI发展的声明。

大多数人中心化于概述指导那些构建这些系统的高层原则。无论是偶然还是设计,它们融合的原理都与医学伦理学的核心原理十分相似。但是牛津大学的布伦特·米特尔施塔特(Brent Mittelstadt)在《自然机器智能》一书中指出,人工智能的发展与医学截然不同,简单的复制和粘贴就行不通。

医学伦理学的四个核心原则是:尊重自主权(患者应控制自己的治疗方式),仁慈(医生应以患者的最大利益为出发点),非犯罪行为(医生应避免造成伤害)和正义(医疗保健)资源应公平分配)。

出版的80多个AI伦理报告远非同类,但在大多数情况下,相似的主题包括尊重,自治,公平和防止伤害。这些似乎适用于AI开发的合理原则。米特尔施塔特(Mittelstadt)说,问题在于,尽管原则在医学等学科的背景下是一种有效的工具,但对于AI而言它们根本就没有意义。

医生具有促进患者健康的明确的共同目标,在进行道德决策时,他们的利益被放在首位。这种团结的中心点导致了规范和标准的共同历史,从而导致了广泛统一的专业文化和道德框架。这已在专业行为守则和监管框架中进一步正规化,对不达标者将进行严厉的处罚。

人工智能不能等同于患者,并且人工智能开发人员的目标和优先级可能会有所不同,这取决于他们如何应用人工智能以及他们是在私人领域还是公共领域工作。不应期望AI从业者像医生和律师那样致力于公共服务,并且几乎没有任何机制可以使他们承担专业或法律责任。

Mittelstadt说,实际上,试图为与其他学科类似的领域制定专业标准是没有意义的。AI开发人员来自不同的学科和专业背景,每个人都有自己的历史和文化。他写道:“将这一领域简化为一种职业或某种专业知识将是一种过度简化。”

大型跨学科团队还在开发和部署的多个阶段创建了AI系统,这几乎使得跟踪单个开发者的决策的道德影响几乎是不可能的,从而妨碍了我们创建标准以指导那些选择的能力。

结果,AI道德规范中心化在高级原则上,但是在这个抽象层次上,它们太模糊了,无法实际指导操作。诸如公平或尊严之类的观念尚未得到普遍认同,因此,每个从业者都可以自行决定如何实施它们。

米特尔施塔特(Mittelstadt)写道:“道德真正困难的部分-实际上将规范性理论,概念和价值观转化为AI从业者可以采用的良好实践-像谚语中的罐头一样踏上了道路。”

在医学上,这是通过伦理审查委员会的艰苦工作,许可计划以及制定机构政策来实现的,而AI中没有这方面的知识。这意味着,尽管AI伦理原则的语言通俗易懂,但将它们转化为行动的可能性很小。

米特尔施塔特(Mittelstadt)写道:“在自治失败时,如果没有互补的惩罚机制和治理机构介入,那么有原则的方法就有可能仅对道德或可信赖的AI提供虚假保证。”

取而代之的是,他呼吁采用一种自下而上的AI伦理学方法,着重于较小的AI子领域,发展伦理原则并解决具有挑战性的新颖案例。他还建议向公共领域的高风险AI应用程序的开发人员授予许可,例如面部识别或警务,从而给不道德行为带来惩罚性专业后果的威胁。

道德责任也应该在组织上而不是在个人专业人员上进行再培训,这将使我们有可能专注于特定应用程序及其基础业务的合法性,而不是将一切归咎于个人开发人员。最后,道德应该被视为开发人员应做的每件事都应内置的过程,而不是可以通过技术修复来解决的解决方案。

图片来源:图片由D1_TheOne来自Pixabay

 

资讯来源:由0x资讯编译自Singularityhub,原文:https://singularityhub.com/2019/11/13/where-should-ai-ethics-come-from-not-medicine-new-study-says/ 。版权归作者所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢