人工智能研究走在时尚最前沿,现在有那么多未来的赌注压在人工智能上,它可能需要回顾一下,才能实现下一个重大突破,这是一个不错的想法。不过,鉴于布莱克将深度网络的成功描述为“整个人工智能领域的一个意外惊喜”(即该技术“已经有了很好的效果”),很明显,我们很难去预测人工智能的未来发展,并且不能用直觉预测。
随着我们采访的结束,最后我有一个想法,在经过30多年的人工智能研究之后,布莱克能提出他自己对人类智力的定义吗?“哦!采访的最后一个问题,很难回答。”布莱克用笑声来结束这个问答。
为什么深度学习那么像黑匣子?“我想这有点像实证研究。联想实验物理学和理论物理学,很多时候,我们在实验物理学中找到一些新发现,接着理论物理学就会花很多时间试图弄明白到底发生了什么。但是第一次找到这个发现是在实验观察的时候。这或许有些出人意料。我认为深度网络也是这样的。整个领域,它的运作效果和它运作过程本身都令人惊讶。这都是实验得到的发现。而实际的物体本身,如果你想知道的话,是相当复杂的。因为我们已经知道深度网络所有的这些层。处理输入的过程,可能会变成十倍多。当你把数据通过所有这些层进行转换时,你很难知道复合效应是什么,还要对所有这些操作序列进行数学运算。我觉得这有点像烹饪。”
在设计专用的硬件设备的问题上,布莱克说:“英特尔会建造整个处理器,同时他们还会为整个数据中心建造所需的设备,包括处理器和电子板,以及所有连接这些处理器的连接数据中心的线路。这种布线实际上不仅仅是连一根电线他们称其为互联。它本身就是一款智能电子产品。因此,英特尔已经掌握了整个系统。在图灵研究所,我们与英特尔合作。我们想问这个问题:如果你真的能自由设计数据中心的全部内容,你怎么能建立对数据科学最好的数据中心?在很大程度上,这意味着对机器学习最好……支持机器学习的硬件肯定是关键。”
被问到自动驾驶汽车面临什么挑战,布莱克说:“自动驾驶汽车面临的一大挑战是,它是建立在机器学习技术的基础上的。我们可以说,这是相当可靠的。如果你读过机器学习的论文,单一的技术通常是能达到99%正确。这对大多数机器学习技术来说是相当惊人的。但是99%的可靠性对于自动驾驶汽车这样的安全关键技术来说还是远远不够的。所以我认为最有趣的事情之一是,你如何结合技术使自动驾驶技术拥有非常高的可靠性,这是从总体来说,在辅助水平上,而不是单个算法的水平,当然这是自动驾驶系统中的必要需求。当然,安全是一个关键考虑因素。我们所做的所有工程和我们所做的研究都将围绕安全原则而不是事后的安全考虑,或附加条件,它必须在一开始就考虑到。”
在伦理道德与人工智能工程的关系问题上,布莱克说:“这是人工智能领域在过去几年中非常关注的一件事,而且有很多研究……在图灵研究所,我们有一个很重要的道德项目,一方面我们有哲学和法律相关学科的顾问,思考算法的道德如何在实践中发挥作用,然后我们也让科学家们去阅读这些信息,并问自己,如果我们想让人工智能体现道德准则,我们该如何设计算法。所以我认为,自动驾驶涉及的一项重要道德原则,很可能是透明度当出现问题时,你想知道它为什么会出错。这不仅仅是为了问责制,也是出于实用的工程目的,如果你在设计一个工程系统,而且它没有达到你的目的,你需要了解其中的哪些部分没有发挥作用,我们需要把注意力集中在哪里。从工程的角度来看,这是好事,从公共责任和理解的角度来看,这也是好事。“
”当然,我们希望公众尽可能地对这些技术感到满意。公众信任将是一个关键因素。过去就有过这样的例子,科学家们认为这些技术并没有立即得到公众的认可,比如转基因作物。早期与公众的沟通不足以让他们信任技术,因此我们要从这些案例中吸取教训。我想很多人都在关注道德问题,人工智能的道德问题将会变得非常重要。”
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!