毁灭人类的不是人工智能,是人造智能!

蒋涛:人工智能我觉得在短期内,可能没有我们预言的那么厉害。

说两个问题:第一,短期内会被取代的不是程序员,而是原来基于算法进行的决策,用的是老一代的机器学习和人工智能方法,它们都将被新一代的人工智能算法所取代,这是深度学习带来的一个巨大突破。

所以,算法工程师要面临技术更新换代,而程序是基于逻辑、基于对问题的描述,在自然语言理解还没有突破的时候,需要描述一个需求才能写程序和代码,在这还没有被突破的时候,是很难做到自动编程的。

第二,所谓取代艺术,艺术其实也是可以被量化的。这次深度学习一个重大的突破,就是把人类的经验给抽象出来了。经验是过去的数据、判断积累下来的。

围棋是很难被量化的,因为它涉及到的因素太复杂,而现在的深度学习技术,不需要学习人类总结围棋的道理,就可以基于过去的结果做出自己的判断。

比如看一幅画,老师和艺术家会对画的好坏做出判断。这些判断,看起来是感性的,但实际上也是基于数据和结果可以把它抽象的。

人工智能未来是否会统治人类?

栗浩洋:现在有两派观点:一派观点是霍金的人工智能威胁论,比尔盖茨和马斯克都支持,他们认为人工智能未来可能会统治人类,甚至是毁灭人类。但是另一派却不认同这种观点,他们以扎克伯格为代表的,说这些人工智能威胁论的判断都是没有根据的,甚至说是发神经。你们认为是怎样的?你们支持哪一派?

戴赛鹰:我认为一定要从时间的跨度来考虑这个问题。

从短期来看,我认为强人工智能还不能实现,当非精度学习没有方法论突破的时候,深度学习实际上不能产生强人工智能,所以三五年之内,我们可以放心地去享受人工智能带来的好处。

在中期,人工智能会带来很多和会问题,比如失业。我觉得在10年-20年中,50%-60%的工作是一定会被替代的,而且会带来贫富差距,很多人的机会会被机器剥夺。

还有一种可能是,机器会操纵人的思维。通过大数据抓取到人的很多东西之后,最终普通人都有可能被操纵。

从50年以上的时间去看,我觉得很危险,强人工智能只要出现,机器人就真的有可能把人类干掉,这个真的是伦理问题。

蒋涛:我不太同意,技术上智能的发展三五年内绝对不可能统治人类,50年也悬。

有两个问题:第一,人的智能跟人工智能还是有很大差异的。而且,人类对这个世界、对自身的认知,是很少的,我们还有很多奥妙没有被科学和计算机认知。第二,可怕的不是机器控制我们,而是人类用自造的机器去毁灭人类。就像造出一个核弹可以毁灭世界,未来可能造出一个商业怪物,它可以控制整个人类的经济。

唐文斌:我觉得这个问题其实挺简单的,在座的所有人大家相不相信有上帝的存在?如果你不相信的话,人实际上只是一堆细胞,在一定规则情况下,产生的一个物理体而已。在这种情况下,为什么不能造出一个机器,完全模拟人的场景呢?所以,一定是可以的。

会不会有真正所谓的人工智能,创造出一个能够自我学习的类生命体呢?从终局的情况下,我认为一定信,但我们需要在这个基础架构上能够设计一些好的方式,让AI能够变成一个好人,而不是一个坏人。

赵伟:AI是我们潜意识一直想要发展的。人的行为、思维模式、信念,跟他的价值观,一直到心理,会自我组建这样的构架。

人工智能被人产生出来以后,它刚开始是行为主导的,比如设置的目标是让这个人工智能击败其它人工智能。但是,如果出现一种人工智能,它被设计的行为目标就是击败所有其它人工智能,获得其它人工智能的计算资源的话,它的思维方式就是攻击性的,它的价值观中,战胜别人获取资源是第一位的,最后导致产生的心理可能是毁灭性的,这是由行为主导的。跟人类从心理的缺陷发展到行为缺陷不一样。