微软提出人工智能十大原则

编者按:我们对人工智能未来的期待充满了不确定性。霍金认为,AI的进化速度会比人类更快,而它们的终极目标是不可预测的。所以人类需要确保人工智能的设计符合道德伦理规范,保障措施到位。微软CEO Satya Nadella对此的看法相同,他认为人类在AI 方面必须展开更深入的协调和协作,就设计的伦理和移情框架达成一致。为此他提出了人工智能需要遵循的六大原则,以及未来人类要想不被时代抛弃需要坚持和发展的四个东西。Nadella 认为,未来的 AI 世界人和机器的关系不是非此即彼,而应该是人机携手,共创未来。

相对于有关计算机在 Jeopardy!(智力竞赛)、国际象棋、跳棋、围棋比赛中击败人类的新闻头条的令人心神不安,先进机器学习,亦即所谓的人工智能或者 AI 的前途要比这有希望得多。最终人类和机器将会一起工作—而不是互相对抗。计算机也许会在游戏中获胜,但不妨想象一下人机携手解决战胜疾病愚昧以及贫困等社会最大挑战的可能性。

微软CEO提出人工智能十大原则

不过要想做到这一点需要有勇气和雄心,这不是当前技术的渐进式改良所能及的。现在是在 AI 方面展开更深入协调和协作的时候了。

今年早些时候,在跟 Saqib Shaikh 同台的时候我得以窥见了这样的未来。Saqib 是一名微软工程师,他开发出了技术来帮助补偿自己早年丧失的视力。通过利用包括视觉识别以及先进机器学习在内的一系列先进技术,Saqib 和他的同事开发出了可以在他佩戴的太阳镜内嵌的小型计算机上运行的应用。这种技术可以消除歧义并且实时对数据进行解析。实际上,技术是在用声音而不是眼睛替他描绘了一幅世界的画面。他对世界的感受方式更加丰富了,比如说他可以把街头发出的噪音跟玩滑板的人联系在一起,或者从会议当中突然陷入的沉默联想到同事脑子里的东西。当技术在他耳边喃喃细语时他可以阅读 “菜单”。不过对他来说最重要的,也许是他在公园野餐的喧闹中找到了他的爱人。

人机携手之美已经在 AI 是好还是坏的讨论中迷失。我们对 AI 的看法似乎已经陷入到两种声音之间:一种是科幻片《2001太空漫游》里面 HAL 令人不安的环境音,一种是今天的 Cortana、Siri 以及 Alexa 等个人数字助手友善的提示声。我们可以在机器开车送我们、替我们干杂活、帮助我们做出更好决策的时候做着如何利用空闲时间的白日梦,或者杞人忧天于本世纪末机器人会诱发大规模的经济失控。视你听到的说法不同,所谓的 “奇点”,也即计算机智能超越人类智能的时刻,可能会在2100年 到来,也可能只是科幻小说的素材。

在我看来,最具建设性的讨论未必是 AI 的正邪之争:争论的焦点应该放在该技术给人和创造者带来的价值上面。在《与机器人共舞(Machines of Loving Grace)》一书中,John Markoff 写道:“回答充斥着智能机器的世界的控制这个难题的最好办法,是理解创造这些系统的人的价值。” 这是一个有趣的问题,必须由整个行业一起讨论和回答。

今年早些时候,我在一场开发者会议上分享了我们对 AI 的看法。首先我们希望开发能够增强人类能力和体验的智能。最终这不会是人类 vs 机器。我们人类有创造力、同理心、情感、肉体性以及洞察力,这些东西可以跟强大的 AI 糅合到一起。计算,也即通过大规模数据获得理性以及更快进行模式识别的能力,可以帮助推动社会前进。其次,我们还必须把信任直接建立到技术里面。我们必须针对隐私、透明和安全给技术增加防护。AI 设备必须设计用于检测新威胁,并且随着 AI 的演变来设计出相应的防护。第三,我们开发的所有技术都必须包容所有人、尊重所有人。

这只是开始,我们还可以走得更远。

技术界不应该决定这一未来的价值观和美德。

科幻小说家阿西莫夫也给出了一个很好的起点,尽管还不够充分:他在 1940年 代提出了 “机器人三原则” 作为故事当中机器人的伦理守则。阿西莫夫定律是层次化的,即第一原则高于第二原则,第二原则高于第三原则。第一原则是机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二原则是机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三原则是机器人必须保护自己,除非这种保护与以上两条相矛盾。尽管阿西莫夫定律作为策略而言比较方便且具有启发性,但是并没有提供研究人员和技术公司可以遵循的价值观或者设计原则,也没有告诉社会当 AI 和机器学习对经济越来越多的构成产生推动时,人类必须带入这下一个时代的能力是什么。