近日,“阿尔法围棋”战胜韩国围棋高手李世石引发了一些人对人工智能(AI)未来会扮演何种角色的担忧。悉尼大学两位机器学习专家则认为,人工智能必须受控于人类,否则人类可能会变得无力抵抗。
悉尼大学电气工程与信息工程学院计算机工程徐东教授一直致力于研究计算机视觉、机器学习和多媒体内容分析,他认为该领域如今面临的问题是,人类应该对人工智能的自我学习能力进行何种程度上的控制。
他表示,科学家们和科技界的投资者在几年前就已经对人工智能抱有巨大的热情,这台超级计算机的胜利也让公众认识到了它的能力,这是科技界的重大突破。他说:“竞技性游戏,例如围棋,实际上都是有关规则的,因此这对一台电脑来说很容易。一旦电脑掌握了这些规则,它就会很善于玩这些游戏。一个人类玩家可以被情绪所影响,比如压力或高兴,但电脑并不会。据说一个人在一年之内能够记下1000个棋局,但计算机能记住数万或者数十万盘棋。超级计算机可以随时改进,如果它输了一局,那么它会对此进行分析,并且在下一局表现地更好。”
徐东还提到,如果超级计算机能够完全模仿人类的大脑,具有愤怒或悲伤等人类情绪将会更加危险。目前,人工智能是可以很好地应用于劳动密集型产业,能够代替人体来为公共利益服务。他们可以进行清洁,作为农业机器人进行工作或探测地下深处。另一方面的挑战在于,人工智能需要一个更智能的环境。例如,无人驾驶汽车往往不能识别出红灯,所以如果交通灯可以发送信号给汽车,汽车接收到信号才能解决问题。新加坡就正在努力建设一个能让无人驾驶车辆迅速作出反应的道路系统。
徐东还指出,对于如谷歌和脸书这样的公司来说,建立“道德和伦理委员会”来保持掌控至关重要。这将确保科学研究不会走向错误的方向,发明出来的机器不会做出带有恶意的事情。
悉尼大学复杂系统的高级讲师迈克尔哈尔博士曾多年研究中国古代棋盘游戏的人工智能。他表示,围棋可能是当下流行的最复杂的游戏。与有着极多种可能棋局的国际象棋相比,围棋甚至拥有比宇宙中的原子数量还要多的可能性的棋局。
他说:“如今技术已经发展到了在简单和复杂的任务中都可以智胜人类的阶段。这是值得担忧的,因为人工智能技术可能在未来达到一个阶段,被应用于防御方面,有可能在操纵过程中已经不需要人类,也就是说真正自主的人工智能。”
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!