这种方法和其他类似技术的1个缺点在于,它们提供的解释总是被简化,意味着许多重要信息可能遗失。盖斯特林说:“我们还没有实现整个梦想,将来AI可以与你对话,并作出解释。距离打造真正可解释的AI,我们还有很长的路要走。”
了解AI的推理不仅在癌症诊断或军事演习等高风险领域至关重要,当这种技术被普及成为日常生活中的重要组成时,AI能够给出解释同样重要。苹果Siri团队负责人汤姆·格鲁伯(Tom Gruber)说,对于他的团队来说,可解释性是个关键因素,因为他们正尝试让Siri变成更聪明、更有能力的虚拟助理。格鲁伯没有讨论Siri未来的具体计划,但很容易想到,如果你收到Siri推荐的餐厅建议,你可能想知道它推荐的理由。苹果AI研究总监、卡内基-梅隆大学副教授鲁斯兰·萨拉克霍特迪诺夫(Ruslan Salakhutdinov)将可解释性作为人类与智能机器之间不断进化的关系的核心。
正如人类的许多行为都是无法解释那样,或许AI也无法解释它所做的一切。克卢恩说:“即使有人能给你看似合理的解释,可能也不够充分,对AI来说同样如此。这可能是智能的本质部分,只有部分行为能用推理解释。有些行为只是出于本能,或潜意识,或根本没有任何理由。”如果真是这样的话,那么在某个阶段,我们可能必须绝对相信AI的判断,或根本不使用它。同样的,这种判断必须要纳入社会智能。正如社会是建立在预期行为的契约之上那样,我们需要设计出遵守和适应我们社会规则的AI系统。如果我们想要制造出机器人坦克和其他杀人机器,它们的决策也需要符合我们的道德判断标准。
为了探索这些抽象概念,我拜访了塔夫茨大学著名哲学家、认知科学家丹尼尔·丹尼特(Daniel Dennett)。丹尼特在其最新著作《From Bacteria to Bach and Back》中称,智能本身进化的本质部分在于创造能够执行任务的系统,而这些任务是系统的创造者都不知道如何执行的。丹尼特说:“问题在于,我们必须做出什么样的努力才能做到这一点,我们给他们定下的标准是什么,我们自己的标准呢?”
丹尼尔还对可解释性AI的探求发出警告,他说:“我认为,如果我们要使用这些东西,并依赖它们,那么我们就需要尽可能牢牢把握住它们如何以及为何给我们这样的答案。”但是由于还没有完美答案,我们应该对AI的可解释性保持谨慎,无论机器变得多么聪明。丹尼特说:“如果它们无法比我们更好地给出解释,那么我们就不该相信它们。”(小小)
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!