《西部世界》式的AI会有多危险?
科技讯3月7日消息,《西部世界》(Westworld)级别的人工智能会有多危险呢?国外媒体Futurism撰文称,该电视剧探讨了有关人工智能伦理和意识的一些哲学问题,虽然现实中不大可能会出现剧中那样的血腥场景,但我们最好还是要好好对待我们的AI机器人。
以下是文章主要内容:
“这些残暴的欢愉,终将以残暴结局。”
在莎士比亚和迈克尔·克莱顿(Michael Crichton)的助力下,HBO的《西部世界》(Westworld)揭示了打造先进的人工智能技术会带来的一些隐忧。
在《西部世界》里,外表跟人没什么两样的AI居住于一个看似美国西部的园区。游客只要花大笔的钱就能前往园区,进行老式的西部冒险活动。期间,他们可以随意跟AI打斗,也可以奸淫杀害AI。游客的枪支能伤害AI,但后者的则伤害不了游客。每一次有机器人“死掉”,它的身体就会被回收清理,擦除记忆,然后再被送回园区。
《西部世界》中的AI安全问题
《西部世界》的创作灵感来自克莱顿以前的一部同名电影,它让我们不禁思考我们将能够在多大程度上掌控先进的科学创造物。但与最初的电影不同,《西部世界》电视剧里的机器人并不是无恶不作的反派角色,而是被描写成富有同情心、甚至很有人性的角色。
不出意外的是,该园区的安全隐忧很快就浮现。园区由一位老人负责打理,他能够随意给机器人升级程序,不经过其他人的安全检查。那些机器人出现回忆起被虐待的迹象。当中有个角色提到,只有一行代码能够阻止机器人伤害人类。
该节目只是谈到了会带来AI安全隐忧的一部分问题:一个“有恶意的机器人”利用先进的AI蓄意伤害人类;软件小小的故障可带来致命影响;在代码层面对人类的保护不足。
不过,该节目揭示的很多安全和伦理道德问题都取决于机器人是否有意识。事实上,该电视剧在非常认真地探究一个非常困难的问题:什么是意识?除此之外,人类能够创造出有意识的东西吗?如果能的话,我们能控制它呢?我们是否想要找出这些问题的答案?
为了思考这些问题,笔者采访了乔治亚理工大学AI研究员马克·里德尔(Mark Riedl)和纽约大学哲学家大卫·查尔莫斯(David Chalmers)。里德尔致力于研究打造创造性的AI,查尔莫斯则以其“意识难题”阐述而著称。
AI能感受到疼痛吗?
被问到进行了相关编程的机器人会在多大程度上感受到疼痛时,里德尔说道,“首先,我反对对人类、动物、人形机器人或者AI实施暴力行为。”他接着解释道,对于人类和动物来说,感觉到的疼痛是一种“避开特定刺激”的警报信号。
然而,对于机器人来说,“最接近的类比可能是强化学习的机器人会碰到的体验,这类机器人需要进行试错学习。”这种AI在进行某种行动后会收到或正面或负面的反馈,然后它会相应调整它未来的行为。里德尔说,那种负面的反馈会更“类似于在计算机游戏中输掉分数”,而不是感觉到疼痛。
“机器人和AI可以通过编程来像人类那样‘表达’疼痛,”里德尔说道,“但那种疼痛会是一种幻觉。制造这种幻觉是有理由的:让机器人能够以一种很容易得到理解和引起共鸣的方式向人类表达自己的内心状态。”
里德尔并不担心AI会感受到疼痛的问题。他还说,如果机器人的记忆每晚都被完全擦除,它会感觉什么都没发生过一样。然而,他指出了一个潜在的安全问题。强化学习要能够正常运作,AI需要采取因正面反馈而优化的行动。如果机器人的记忆没有被完全擦除——如果机器人开始记起曾发生在自己身上的糟糕经历——那它可能会试图规避那些触发负面反馈的行动或者人。
里德尔说,“理论上,这些机器人能够学习预先计划以最合算的方式降低获得负面反馈的可能性……如果机器人除了知道获得正面反馈还是负面反馈之外,并不清楚自己的行动会带来的影响,那这也可能意味着它们会提前行动来防止遭到人类的伤害。”