这个威胁被认为是非常严重的,世界上最著名的机器学习研究者们在本月初召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如如何生成看起来与人类正常手写数字一样的复杂技巧,但似乎又与软件不同。以2为例,机器视觉系统可能将其看作是3。研究人员还讨论了防御这种攻击的可能性,并担心AI可能被用来愚弄人类。
组织这次研讨会的蒂姆·黄(Tim Hwang)预测,随着机器学习变得更容易部署和日益强大,使用这种技术来操纵人们是不可避免的。蒂姆指出:“你不再需要一屋子的博士来研究机器学习技术。”他还称,在2016年美国总统选举期间,俄罗斯的“反信息”运动就是一场AI增强信息战的潜在先行者。蒂姆预测,最有效的方法就是使用机器学习来生成假视频和音频。
4.玩转棋牌游戏
在2017年,Alphabet旗下的围棋软件AlphaGo得到迅速发展。今年5月份,更强大的软件版本击败了中国冠军。它的创造者、研究单位DeepMind后来又开发出一个版本AlphaGo Zero,在不学习人类棋路的情况下学会了这个游戏。今年12月份,另一项升级努力诞生了AlphaZero,它可以学习国际象棋和日本棋牌游戏Shogi(虽然不是同时学习)。
这些引人注目的结果令人印象深刻,但也提醒了我们AI软件的局限性。国际象棋、shogi以及围棋都是复杂的,但它们都有相对简单的规则,并对双方都可见。对于计算机来说,这种挑战恰好与其快速进化的能力相匹配。但是,生活中的大多数情况和问题都不是这么井然有序。
这就是DeepMind和Facebook在2017年开始研发多人游戏《星际争霸》(StarCraft)的原因,目前两家公司都没有取得太大成就。现在,业余爱好者制造的最好的聊天机器人,依然无法匹敌那些技术精湛的玩家。DeepMind研究人员Oriol Vinyals在今年早些时候告诉《连线》杂志,他的软件目前缺乏精心组装和指挥军队所需的计划和记忆能力,同时也无法对对手的移动进行预测和反应。无独有偶,这些技能也能让软件更好地帮助处理现实世界的任务,比如办公室工作或实际的军事行动。在2018年,《星际争霸》或类似游戏取得重大进展可能预示着更强大AI的新应用。
5.教AI辨别是非
即使没有在上述领域取得新的进展,如果现有的AI技术被广泛采用,经济和社会的许多方面也会发生巨大的变化。随着公司和政府急于部署AI,许多人担心AI和机器学习会造成意外和故意伤害。如何在安全和符合道德规范的范围内对技术保持控制,是本月NIPS机器学习会议上一个重要的讨论话题。
研究人员发现,当机器学习系统接收远离“完美世界”的数据训练时,它们可以接受令人讨厌的或不受欢迎的行为,比如永远维持性别刻板的印象。现在,有些人正在研究可以用来审计AI系统内部工作的技术,并确保它们在从事金融或医疗等行业工作时做出公平的决策。
明年,科技公司将会提出如何让AI保持人性正确一面的想法。
谷歌、Facebook、微软以及其他公司已经开始讨论这个问题,并且成立了新的非营利组织Partnership on AI,它将研究并试图塑造AI的社会影响。此外,名为“人工智能伦理与治理基金会”的慈善项目正在支持麻省理工学院(MIT)、哈佛大学以及其他研究AI和公共利益的机构。现在,纽约大学的一个新研究机构AI Now也有一个类似的任务。在最近的一份报告中,它呼吁各国政府放弃使用“黑匣子”算法。