AI会取代人类吗?
一些科学界人士担心AI是个“潘多拉盒子”,会导致危险的后果。早在1993年,计算机科学家Vernon Vinge推广了技术新概念:AI驱动的计算机或机器人能重新设计并改进自身,或者能设计比自身更先进的AI。
自然有人认为,这将导致AI超出人类智慧、理解和控制,从而导致人类时代的终结。近来,史蒂芬·霍金和其他权威科学家,包括Stuart Russell,Max Tegmark,和Frank Wilczek同样警告过,AI太过“聪明”的潜在后果。
这个令人忧虑的想法给好莱坞电影提供了素材,从60年代的《2001太空漫游》,到80年代的《终结者》系列及近期的《超验骇客》,所有电影都选择描述各种失去控制的AI主导的反乌托邦世界。
但在我们太过担忧之前,需要说明一下人工智能当前的水平。如果实现,首先“全能AI”必须实现重大进展,即可以AI机器人可以成功胜任所有人类胜任的智能任务。而现在,该AI技术根本还未实现。通用AI不同于我们大多数人熟悉的“领域特定AI”。
这些领域特定AI专注于一件事情——例如,掌握国际象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、驾驶汽车(谷歌的自动驾驶)、或护照照片人脸识别。即使是知名的AI倡导者也认为,Vernon Vinge提出的新观点在未来某天终会到来,通常在他们写出程序后的三十年左右。
然而,AI越来越发达,它已经对我们的经济产生了深远影响。在2013年的一项研究中,经济学家Frey和Osborne使用AI技术探索自动化对职业影响的研究。基于他们的预测,美国职场上约47%的职位面临极大的风险,可能在接下来的十年或二十年将会被机器取代。迄今为止,中等收入职位受到的影响最大,也体现了当下最易受自动化影响的工作内容。
对于过去经济发展过程中出现的重大变革(例如,从农业为主的经济转变成工业经济),人们通过改变教育和学习的范围和内容逐渐适应。这种观点是,如果“工人有灵活的技能,如果教育基础设施得到充分发展,那么...技术和教育之间的竞争没有胜利者,成果将会被更多人共享”。
在快速发展的AI面前,这种方法是否适用值得商榷。历史证明,技术的改变通常会带来很多无法预料的新角色。而其他人,如Martin Ford认为随着自动化承接越来越复杂的任务,工作机会会减少,无法保持当前的就业率。
AIEd的伦理问题
人工智能(AI)的发展正在加速,渗透到我们生活的每一方面。问题在于,我们是否已准备好可控制的情况下让此发生?正如牛津大学的哲学家Nick Bostrum所论述的,需特别谨慎地关注AI的伦理问题:“责任、透明性、可审计性、防破坏性、可预测性(...);必须在旨在取代人类社会功能判断的算法中考虑这些标准”。
例如,如果AI“出错”(比如,可参见2010年金融界“闪电崩盘”事件中算法起到的作用)由谁来承担责任,是最终用户还是程序员?如果交通事故涉及自动驾驶车辆,该怎么处理?能否知晓它是如何做出决定并对其进行修正来防止问题的?如果AI使用的是神经网络,这已变得非常困难。而且,AI是否开放操控?我们都非常清楚电脑黑客行为的后果。如果出于犯罪目的开发或修改AI,会发生什么?
对于AIEd,同样存在这些伦理问题。例如,我们知道共享数据对AIEd系统的集成至关重要,而且,匿名化数据的共享,通过削减浪费、重复性工作,可促成该领域的飞跃式进步。但这种共享带来了从个人隐私到专有知识产权的大量问题。
的确,AIEd系统所生成的数据越来越多,同时更加多样化,这让现有的教育数据伦理问题风险加倍。AIEd系统数据生成、分析、解释和使用有什么影响意义?谁持有数据、谁可使用数据,出于何种目的使用数据、谁负最终责任?
另一个需考虑的问题是,AIEd旨在影响用户的长期行为并对其进行改变。例如,系统可作出建议、进行劝说或提供反馈,使人机之间建立关系。行为改变毫无疑问是一种可能,但这仍没有经过严肃的伦理考虑。
其他担忧则与学习伙伴相关,虽然它们被设计出来的原意是支持学习者学习,但恐怕“跟随”您的伙伴反而会永久性地记录下学习失败经历,不利于未来的发展。