未来是近在眼前,还是遥不可及?
很多媒体文章都认为人类已邻近真正AI(人工智能),我们相信在未来,生活中到处都是机器人、无人机和自动驾驶车辆,人类并不需要花太多时间控制这些机器。
但是现实中AI真的会像我们想象的那样发展迅速吗?
像Elon Musk和Stephen Hawking那样在世界领先的大学部门和研究中心的研究人员,他们更加关注AI带来的潜在风险,他们认为我们必须采取行动,以规避风险。他们预测,到2030年,机器将通过应用人类智能形成自我意识。
事实上,Hawking博士告诉英国广播公司:“人工智能的发展可能会导致人类的毁灭。”未来近在咫尺,人工智能可能很快超过人类。
然而,事实上,我们离真正的AI还很远。真正的AI是指能像人类一样做出反应,并会自我完善的强大人类智能。人类需要多久才能实现真正的AI呢,100年都不止,或许是几个世纪几千年,又或许我们永远都无法实现。
下面是一些原因。
智能并不等于超级智能
真正的AI或者说超级智能,应该拥有人类的所有认知能力,包括自我意识、情感和意识,因为这些都是人类认知的特征。
牛津哲学家和领先的AI思想家Nick Bostrom将超级智能定义为“在每个领域都能超越人类智慧的智力,它的科学创造力、一般智慧和社交技能是人类难以望其项背的。”
现在AI只能专攻一个领域,在某一领域超越人类。比方说,AlphaGo可以击败围棋世界冠军,但它却只会下围棋。
虽然科学家已经利用AI技术建立了神经网络来模仿人类大脑理解、分析信息和构建概念的过程,但科学家却不懂其中的原理,神经网络为什么用这种方式来解释东西。
从科学的角度来看,神经网络只是一堆数学和方程,用数字的形态呈现。但我们知道,仅仅用这些来模仿人类智慧和人类的大脑是远远不够的。
纽约大学计算机科学家Ernest Davis说道:“我没有看到任何表明人类快要实现真正的AI的迹象。虽然AI可以战胜围棋世界冠军或完成一些其他任务,但是从常识、视觉、语言和直觉等方面来说,它跟7岁小孩相比还差得远呢。”
如果没有认识到现在的AI和真正AI之间的区别,那么确实会产生跟Elon Musk和Stephen Hawking一样的担忧,他们都相信人类已经具备开发真正AI的能力。
我们对智力和超级智能的理解是有限的
微软联合创始人Paul Allen在2011年写道:“要让人类到达这一奇点,仅仅用现有软件是不够的,我们还需要开发更智能更强大的软件。开发这种高级软件需要事先对人类自我认知有非常深入的理解,我们现在只对该领域略知一二。”
因此,实现真正AI的前提条件还未满足:我们还无法真正理解人类智能和意识。
大多数研究大脑和心灵的专家都同意这两个观点:我们不知道,智能是什么,我们也不知道意识是什么。
神经科学和神经心理学并不提供人类智能的定义。不同的领域,甚至不同的研究者,都用不同的术语来定义智能。
目前,AI专家给智能的定义是,学习、识别模式、展示情绪行为和解决分析问题的能力。但是,这个定义只是讲述了认知行为的某些方面,根本不能详尽智能这个复杂的概念。
如果我们人类不理解智能,我们又如何能创造出“智能”的计算机呢?
人类的大脑太过复杂
为了复制人类的大脑和它的工作原理,科学家必须尝试克隆大脑,或者开发一个仿大脑系统。
人类大脑有大约1000亿个神经元,在这些神经元之间有一万亿个连接。到目前为止,最好的人工映射生活大脑是由OpenWorm项目实现的。团队设法将蛔虫Caenorhabditis elegans’302神经元映射到计算机模拟中,该模拟为一个简单的乐高机器人的运动提供动力。