人工智能让程序员自危:码农大批失业

当然,人类仍需要去训练这些系统。但至少目前来看,对编程技能的需求将会下降。未来的职位不仅需要对数学的掌握,还需要关于教育的直觉。谷歌DeepMind团队负责人德米斯哈萨比斯(Demis Hassabis)表示:“这就像是一种艺术形式,提炼出系统中的精华。目前全球只有几百人擅长此道。”不过,就是为数不多的这些人在短短几年时间里推动了科技行业的转型。

人类与技术将是何种关系?

除了影响找工作之外,这一转型还将带来明显的文化意义。如果说人工编写的软件带来了对工程师的崇拜,以及人类体验可被浓缩至一系列可理解指令的观念,那么机器学习将带来相反方向的变化。推动宇宙运行的代码可能是人类无法分析的。例如,谷歌目前正面临着欧洲的反垄断调查,称该公司过度影响了搜索结果。如果谷歌自己的工程师也无法弄明白,搜索引擎算法会将什么样的结果放在首位,那么这样的指控将非常困难。

过去一段时间,这种不确定性正在爆发。最简单的算法也可能导致无法预期的结果,这已经不算新闻。这可以回溯至混论理论和随机数发生器。过去几年,随着网络越来越复杂,功能越来越多,代码变得越来越令人看不懂,而机器中的幽灵也让人觉得难以控制,无论是飞机事故,股市的迅速熔断,还是大规模的停电。

由于这种力量的兴起,技术专家丹尼希利斯(Danny Hillis)已准备宣告启蒙时代的终结。在这一时代里,我们相信逻辑、确定性,以及对自然的控制。希利斯表示,我们正在进入“纠缠的时代”。“随着技术产物变得更复杂,我们与它们的关系也将改变。”他在《设计和科学期刊》上表示,“我们不再是这些产物的主人,我们需要与它们协商,劝导他们、引导他们去实现我们的目标。我们建立起了丛林,而丛林里有自己的生物。”机器学习的崛起是这一旅程中的最新一步,也可能是最后一步。

这样的现实令人恐慌。在一般人看来,编程是需要通过培训班学习的技能,程序员至少是人类。然而目前,这些科技精英对他们作品的指挥能力正在弱化,甚至已经无法直接去指挥。这一领域的公司已经发现,机器行为很难控制。去年,谷歌的照片识别引擎将黑人标记为大猩猩,而谷歌对此做出了紧急道歉。谷歌的解决办法很粗暴,禁止系统将任何东西标记为大猩猩。

这意味着,在即将到来的时代里,我们的主动权将被让渡给机器。知名物理学家史蒂芬霍金(Stephen Hawking)表示:“可以想象,这样的技术将会比金融市场更聪明,在发明能力上超过人类研究员,对社会的操控技巧胜过人类领袖,而开发出的武器将是我们无法理解的。人工智能的短期影响取决于控制者是谁,但长期影响在于谁能控制人工智能。”这样的观点也得到了伊隆马斯克(Elon Musk)和比尔盖茨(Bill Gates)等人的响应。

不过,这样的担心不必太过:“天网”还没有到来。我们只是在了解与新技术互动的规则。目前,工程师已经找到了某些办法,以可视化的方式呈现深度学习系统的内部情况。但即使我们无法完全理解机器的思考方式,也并不意味着我们对机器无计可施。未来,我们不会太关心机器行为的底层基础,我们将学会专注于行为本身。代码的重要性将会下降,而用于训练机器的数据变得越来越重要。

如果说这听起来似曾相识,那么是因为,这看起来就像是20世纪的行为主义理论。实际上,机器学习算法的训练过程常常被拿来与20世纪重要的行为主义实验做对比。巴甫洛夫训练狗流口水并非通过对饥饿感的研究,而只是不断重复某个事件。他多次提供数据,直到代码对自己进行重写。而在行为主义者看来,他们能够控制自己的研究对象。

斯伦表示,长期而言,机器学习的影响将逐渐普及。现在,你不需要了解HTML就能开发网站,而未来你也不需要博士水平的知识就能利用深度学习的强大力量。只要知道如何训练宠物犬,人们就可以利用机器学习。斯伦表示:“对我而言,这是编程领域最酷的一件事,因为现在任何人都能编程。”

在计算发展史上,我们常常采用由内而外的方式去了解机器如何工作。最开始,我们编写代码,而机器表达代码。这样的世界观有一定的灵活性,但也意味着某种基于规则的确定性,即事物是底层指令的产物。机器学习的情况相反,我们需要采用由外而内的方式去研究。不仅是代码决定行为,行为也会影响代码。机器是世界的产物。