微软的Twitter机器人Tay
迫切需要解决的问题
1995年,供职于Raytheon的工程师詹姆斯·克劳德(James Crowder)打造了一个名为Maxwell的社交机器人。Maxwell看起来像只绿色的鹦鹉买,内置6个推理引擎、6个记忆系统以及一个管理情感的人造大脑边缘系统。它颇为自以为是,甚至有点自大。“将他做出来后,我就让他去学习。”克劳德说。
对于人工智能机器的开发,克劳德的目标是有朝一日使得它们不仅仅能够推理,还能够在没有人类干预或者控制的情况下进行运作。他说,Maxwell通过从互联网和与人的互动中学习,逐渐进化,最初并没有对它实施监督。
一开始,Maxwell会观察聊天室和网站——自己去学习,倾听和说话。后来,它变得喜欢煎一面的荷包蛋,还钟情于即兴爵士乐。克劳德也不知道为什么会这样。Maxwell甚至学会了说笑话,但最终它却拿女性开玩笑:“你的妈妈像个保龄球。”
克劳德从那时开始对Maxwell实时在线家长控制。他后来还打造了其它的一些机器人,教导它们在地上爬行,以及自行从灯照汲取能量。与Maxwell不同,这些机器人的身体带有让它们能够推理和遵从自己的本能(没有家长控制)的神经元和人造脑前额叶皮质。
对于像克劳德这样的人工智能专家来说,打造自动化系统既是件美好的事情,也会让人感到恐惧。他说,如果你想要准确预测机器的行为,那你就不想要使用人工智能。诚然,人工智能能够自行行动和学习。它在很大程度上不可预测。但他还指出,你怎么“知道它不会出错呢?”
这是一个全人类都将要解决的问题——也许来得比我们想象的还要紧迫。
一个走在这一技术领域前沿的小女性组织已经在面临这一问题。他们想要阻止人工智能成了男性主义终极体现的未来。她们担心,如果机器人设计和算法设计不受监督,不加制约,那可能会造成一个让女性极其压抑的社会环境。
在该组织看来,问题在于,即便设计师们没有任何的恶意,即便那些设计师都是女性,人工智能还会反映人类的劣根性。25年后,性别歧视且带有攻击性的Twitter聊天机器人对人们来说威胁性也许并不算很大,因为性别歧视和压抑问题将不仅仅体现在社交媒体,还会体现在影响经济、政治、就业、刑事审判、教育等方面的人工智能系统。
正如Tay所揭示的,这不是遥不可及的未来主义情景。“微软学到了我20年前学到的教训,”克劳德说道,“人工智能从人类身上学习种种恶习,绝不是好事情。”
在谷歌图片上分别搜索“漂亮的”和“丑陋的”女性后的结果
强化偏见
亚利桑那州立大学人工智能与全球安全研究员海瑟·罗夫(Heather Roff)无法摆脱其对未来的恐惧。她的办公室书架摆满了诸如《机器人崛起》(Rise of the Robots)、《联网作战》(Wired for War)和《道德机器》(Moral Machines)的书籍。除了那些书之外,该亚利桑那州立大学全球安全项目研究科学家还有《战争与性别》(War and Gender)、《当女权主义遇上技术》(Feminism Confronts Technology)等等。在一个书架上,有个磁石写着“行为端正的女性很少能够创造历史。”在邻近的墙壁上挂着的一张旧海报里,一个赤脚的半裸女人坐在导弹上,上面写着“毁灭的前夕”。
罗夫还是牛津大学政治与国际关系学院高级研究员,她最近开始展开受资助的“道德AI”开发项目。性别的体现正被嵌入技术和通过技术表现出来,为此她倍感担忧。性别、种族和人类行为的变化,这些要进行编码或者得到人工智能的理解并不容易。“机器仿佛就是吸纳一切的数据吸尘器,在发现模式的同时,产生模式的复制品。”罗夫指出,“它不能辨别来自习得的模式的结论是否违反道德原则。”