我们在可解释的AI方面取得了进步,但仍然存在重大缺陷

机器学习算法在许多狭窄而特定的领域(例如图像识别和某些类型的医学诊断)开始超越人类的性能。在更复杂的领域,例如生成令人反感的类人文字,它们也在迅速改善。从我们共同花费数十亿小时的观察时间到谁找到工作,我们越来越依赖机器学习算法来做出广泛主题的决策。

但是机器学习算法无法解释他们做出的决定。
如果我们不了解人们如何做出这些决定,我们如何证明这些系统负责影响人们生活的决定?

从机器学习算法中获取比原始数据更多的渴望导致人们重新关注可解释的AI:可以做出决定或采取行动并告诉您背后原因的算法。

是什么让你这么说?

在某些情况下,您已经看到了通往可解释的AI的道路。采用OpenAI的GTP-2模型或IBM的Project Debater。两者都基于大量的训练数据生成文本,并尝试使其与给出的提示尽可能相关。如果这些模型还能够快速提供他们从中提取信息的那组训练数据中最重要的几个来源,那么可能更容易理解“论点”(或关于独角兽的诗文)的来龙去脉从。

这类似于Google现在正在寻找其图像分类器的方法。许多算法对纹理和图像中相邻像素之间的关系更敏感,而不是像人类一样通过轮廓识别对象。这会导致奇怪的结果:某些算法可以愉快地识别出一只完全混乱的北极熊市图像,而不是北极熊市剪影。

使图像分类器可解释的先前尝试依赖于重要性映射。在这种方法中,算法将突出显示做出决策的统计权重最大的图像区域。通常,这是通过更改图像中的像素组并查看哪些像素对算法对图像的印象有最大的变化来确定的。例如,如果算法试图识别停车标志,则更改背景不太可能像更改停车标志一样重要。

Google的新方法通过以几种不同的分辨率检查对象并在主对象内搜索与不同“子对象”的匹配项来改变其算法识别对象的方式。您或我可能会从其闪光灯,轮胎和徽标中识别出一辆救护车;我们可能会放大NBA球员所拥有的篮球来推断他们的职业,等等。通过将图像的整体分类与这些“概念”联系起来,该算法可以解释其决定:由于猫的尾巴和胡须,我将其分类为猫。

但是,即使在这个实验中,算法在决策中的“心理”也是违反直觉的。例如,在篮球案中,做出决定的最重要因素实际上是球员的球衣而不是篮球。

您能解释一下您不了解的内容吗?

尽管看似微不足道,但这里的冲突是人工智能方法中的根本冲突。也就是说,仅通过海量数据之间的统计关联就可以达到多大的距离,您需要引入多少抽象概念才能产生真正的智能?

一方面,优良的老式AI或GOFAI梦想着完全基于符号逻辑的机器。该机器将采用狗,花朵,汽车等的概念进行硬编码,再加上我们内部化的所有象征性“规则”,使我们能够区分狗,花朵和汽车。 (您可以想象一种类似的对话式AI方法将自上而下地教授单词和严格的语法结构,而不是像GPT-2那样从训练数据中字母和单词之间的统计关联中“学习”语言。)

这样的系统将能够自我解释,因为它将处理高级的,人类可理解的概念。方程更接近:“球” +“针” +“白色” =“棒球”,而不是由数百万个数字组成的将各种路径连接在一起的集合。 Google用来解释其图像识别的新方法中包含GOFAI的元素:新算法可以根据它们包含的子对象识别对象。为此,它至少需要基本了解那些子对象的外观,以及将对象链接到子对象的规则,例如“猫有胡须”。

当然,问题是(可能是不可能的)劳动强度大的任务,即定义所有这些符号概念以及可能用手将它们链接在一起的所有可能的规则。创建这样的系统(可以处理现实中存在的“组合爆炸”)的困难,导致了第一个AI冬季。

同时,神经网络依赖于对大量数据的训练。没有监督学习的“标签”,该过程可能与人类可以理解的任何概念都没有关系(因此完全无法解释)。

在这两者之间的某个地方,是希望可以解释的AI爱好者,是可以处理大量数据的快乐媒介,它为我们提供了最近的神经网络AI所拥有的所有好处,同时以人类可以理解的方式展示了它的工作原理。

图片来源:图片由Seanbatty在Pixabay上发布

资讯来源:由0x资讯编译自Singularityhub,原文:https://singularityhub.com/2019/11/18/the-progress-were-making-in-explainable-ai-and-the-pitfalls-that-remain/ 。版权归作者所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢