悉尼大学两位机器学习专家在此间发出警告:必须建立“道德和伦理委员会”来保持掌控人工智能,否则我们可能会变得无力抵抗。
悉尼大学电气工程与信息工程学院计算机工程徐东教授说,近日世界围棋赛冠军在人机大战中的惨败,重新引发了人们对人工智能(AI)设备未来会扮演何种角色的担忧。
这位研究领域包括计算机视觉、机器学习和多媒体内容分析的教授说,现在的问题是,我们应该对人工智能中自我学习进行多少控制。
“科学家们和科技界的投资者在几年前就已经对人工智能抱有巨大的热情,但是这台超级计算机的胜利终于让公众也认识到了它的能力。这是科技界的重大突破。”徐教授说。
徐东认为,超级计算机比人类思维的更强大。竞技性游戏,例如围棋,实际上都是有关规则的,这对一台电脑来说很容易。一旦电脑掌握了这些规则,它就会很善于玩这些游戏。一个人类玩家可以被情绪所影响,比如压力或高兴,但电脑并不会。一个人在一年之内能够记下1000个棋局,但计算机能记住数万或者数十万盘棋。超级计算机可以随时改进,如果它输了一局,那么它会对此进行分析,并且在下一局表现地更好。
徐东强调,如果超级计算机能够完全模仿人类的大脑,具有愤怒或悲伤等人类情绪,它将会更加危险。
徐东认为,对于如谷歌和facebook这样的公司来说,建立“道德和伦理委员会”来保持掌控,使科学研究不会走向错误的方向,发明出来的机器不会做出任何带有恶意的事情。
悉尼大学复杂系统的高级讲师麦克哈尔花了多年时间来研究中国古代的棋盘游戏背后的人工智能,他说:“围棋可能是今天普遍在玩的最复杂的游戏。和有极大数量可能棋局的国际象棋相比,围棋甚至拥有比宇宙中的原子数量还要多的可能性的棋局。
哈尔说:“现在已经发展到了人工智能在简单和复杂的任务中都可以智胜人类的阶段。这是需要引发担忧的,因为人工智能技术可能在未来达到一个阶段,它被应用于防御方面,在操纵过程中已经不需要人类是可能的,也就是说已成为真正自主的人工智能(AI )”。
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!