不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家霍金在内的数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。
英、法等国媒体1月13日报道,这封信由非营利机构“未来生活研究所”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪 泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英以及一些来自美国哈佛大学、斯坦福大学等知名高校 的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。这封公开信说,人工智能技术稳定发展已获广泛共识,而且未来能够给人类带来巨大益处。人 工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。但是,如果没有针对人工智能的安全防护措施,可能导致人类的未 来变得黯淡,甚至让人类灭亡。
短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。
这封公开信说:“我们的人工智能系统必须按照我们的要求工作。”
去年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!