AI的“军备竞赛”已开启!未来1万年的人类是啥样?

众所周知,人工智能的黑暗面在于自主武器横行。一款由人工智能驱动的杀手无人机,其价格仅相当于一部智能手机。因此,许多人工智能研究人员和机器人专家呼吁禁止某些类型的自主武器,并阻止“全球人工智能军备竞赛”。

“如果我们能弄清楚如何让机器人裁判变得透明和公正,人工智能可以让我们的法律系统更公平、更高效。”泰格马克解释道。法律体系中典型的人为错误是由偏见、疲劳或最新知识匮乏造成的。需要设计机器人的法律分类、责任和权利。在一场涉及无人驾驶汽车的事故中,谁应该承担责任:居住者、所有者、制造商还是汽车本身?

Tegmark认为,毫无疑问,人工智能主导的时代将会改变就业,最好的职业将是那些涉及人、不可预测性和创造力的职业。不幸的是,研究表明,科技对教育程度更高、科技公司的所有者和少数“超级明星”有利。

政府应该制定促进研究、教育和企业家精神的政策,确保基本收入水平,同时赋予人们一种工作与生活的使命感。

在人工智能研究人员、科技巨头和创业者的参与下,“生命研究学院”的未来将在这方面成为“人工智能安全”的主流。它支持诸如与政策制定者对话、尊重隐私、共享利益、共同利益和人类控制等原则。这样做的目的是为了在人工智能完全起飞之前改善人类社会,在技术使其过时之前实现现代化,并让年轻人在将权力交给他们之前,让他们了解如何创造出强大的技术。

目标

人类的目标和动机有着复杂的相互作用,比如生存、资源获娶好奇心和同情心。有些人已经放弃了早期的生物目标,比如复制。智能行为与目标实现相关联,早期的人工智能计划围绕着编程机器来实现人类目标。目标设计涉及到子目标、伦理、学习和强化等问题。

但随着人工智能变得越来越复杂,我们需要问人工智能是否应该保留我们已经给出的目标。我们是否应该让AI更广泛、更广泛的目标?这是谁的目标?我们能改变AI的目标吗?“意义”的含义是什么?人类在科学、宗教和哲学方面的目标是什么?有朝一日,人类的目标会像蚂蚁的目标一样令人沮丧吗?

意识

Tegmark提出了一种对意识实体的定义,即那些可以自由思考、记忆、计算、学习、经验、交流和行动的人,无关伤害他人。作者强调,随着人工智能变得越来越复杂,我们也需要认识到,我们对意识意义的哲学探索现在有一个紧迫的截止日期。

一些棘手的问题产生,比如理解无意识行为是如何影响意识活动的?意识和无意识系统之间的物理属性区别是什么?以及为什么事物是有意识的?自动驾驶汽车经历着什么?人工智能有自由意志吗?人工智能会受到影响吗?AI应该有权利吗?

人类意识研究反映了大脑理论、物理学和信息科学等领域的融合。“如果人工智能是可能的,那么与人类的经验相比,人工智能体验的空间可能是巨大的,”Tegmark解释道。人工智能可能会挑战人类中心主义的理念(认为人类是地球上最聪明的物种,因此是独一无二和优越的)。

人工智能起飞:智力爆炸?

生命进化的原则包括协作、竞争和控制,这些都被技术放大了。如果我们有一天创造出人类水平的AGI(artificial general intelligence),那么它会以多快的速度制造出一场智力爆炸呢?我们能控制这个吗?如果不是,那我们要花多长时间才能控制我们的世界?在这样一个世界里,我们人类是在极权主义的环境中还是在一个被授权的舞台上?

“人工智能突破”章节以科幻小说的形式讲述了这样的问题。被不那么聪明的人类奴役,AI会不会感到不高兴?人类应该在人工智能系统中创造什么目标来防止兵变?人工智能能对系统进行主导,并破解它吗?我们会生活在两极世界(人类和人工智能)吗?

我们什么时候才能到达这条岔路口——当我们这么做的时候,我们能对人工智能施加多大的控制,人工智能又能控制多少呢?根据Tegmark的说法,真正的答案不是会发生什么,或者应该会发生什么?而是我们想要什么样的未来?