从智能手机上类似于Siri这样的语音助理程序到能自动驾驶的汽车,人工智能(AI)正在成为我们日常生活中的一个重要组成部分。但也有专家表示,与发展其他技术相比,发展人工智能要更加小心谨慎。
科技巨头心有戚戚
最近越来越多的科学与科技巨头加入反AI阵营当中。
著名天体物理学家斯蒂芬·霍金曾警告称,按人工智能的发展进度,在不久的将来,机器可能就会以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。
美国太空探索技术公司SpaceX创办人及特斯拉电动汽车CEO伊隆·马斯克将玩弄人工智能等同于“召唤恶魔”,他认为人工智能可能是未来人类生存的最大威胁之一。
微软联合创始人比尔·盖茨最近也发表言论表示对人工智能的发展感到担忧,他说:“如果我们能够很好地驾驭,机器能够为人类造福,但如果若干年后机器发展得足够智能就将成为人类的心头大患。”
纵观历史上的发明,如火、电、蒸汽机等,除了推动社会前进,造福人类外,同样也会造成危险。为什么我们偏偏要对人工智能区别对待?
未能如愿的迈达斯
美国麻省理工学院物理学家马克斯·泰格马克此前在参加一个电台节目时说:“发展人工智能就像是发展核武器,在首次使用时我们真的需要慎之又慎,因为我们很有可能只有这一次机会。”
从好的方面来看,在一定时期内,人工智能的确有益于社会,甚至于帮助人类消灭战争、远离疾病、告别贫困也不无可能。微软研究院实验室主管埃里克·霍维茨说,这项技术可以拯救成千上万人的生命,无论是通过防止车祸还是避免医疗上的人为失误。但对人类而言,发展人工智能的一个重要隐患是创造了一种能够不断完善自己并最终极有可能摆脱人类控制的机器。
美国加州大学伯克利分校计算机科学家斯图尔特·拉塞尔说,不少人认为聪明一定是好的,会让事情变得更加美好。但实际情况是,并非所有的事情都是如此。就像希腊神话中迈达斯国王的故事一样,聪明的迈达斯曾想将他所触碰到的东西都变成黄金,但获得这一能力后他很快就后悔了,因为就连他的食物、水,甚至还有他的女儿也都变成了黄金。最终他接受建议,在河中沐浴后才得以解脱。
拉塞尔说,越来越聪明的机器极有可能不会沿着人类的期望发展。实际上,能够自我学习自我完善的它们,很有可能在目标上与创造它的人类出现不一致。例如,核聚变和核裂变将近乎无限的能量储存在一个原子当中,但不幸的是我们获得这些知识后的第一件事情就是制造了一个超级杀人武器——原子弹。“如今,99%的聚变研究都是受到严格管制的,人工智能也将走上同一条道路。”
担忧还不如去行动
泰格马克将发展人工智能称为“日益强大的技术实力与人类不断增长的智慧之间的一场竞赛”。他认为,与其减缓前者的发展还不如更多地投资于后者。
在今年1月的波多黎各,在由一家非营利组织生命未来研究所举行的一次会议上,来自学术界和工业界的百余名位科学家、企业家、投资者联名签署了一封公开信,提醒人们关注人工智能的安全性和社会效益。生命未来研究所是由Skype联合创始人让·塔林等志愿者于2014年创立的一家非营利组织,该机构致力于促进对人工智能“乐观的未来图景”的研究,同时“降低人类面临的风险”。
这封公开信中描述了人工智能的潜在好处,同时也对其隐患进行了警告。与会者认为,随着人工智能研究的发展,它对社会的影响将越来越大。鉴于人工智能所具备的巨大潜力,应当将如何在规避潜在威胁的同时从中获益作为一个重要的课题来进行研究。对人工智能,我们的目标是让机器造福人类。期间,马斯克向该机构捐赠了1000万美元以促进这一目标的实现。(王小龙)