算法构筑了进入互联网的很多东西,这已经被不止一次地论述过。但是,还没有一些非常确凿的证据,可以支持当初创造更加以人为中心的算法解决方案的办法。比如,我们是否需要站在人类这一边——而非与人作对——的算法?
当我们算法化后,我们就迷失在其中
数字产品原先在我们的口袋里,现在正逐渐搬迁到我们的皮肤上,最终会进入我们的身体之内。今日,算法影响了我们在网上看到的东西,明天,他们会在家里,或者在车上,或者在野外环境中调整我们的物理现实。
通过个性化的过程,我们变成了算法系统的一部分,而这部分并不受我们控制 。实际上,这里存在一个非常明显的悖论,事关个性化的最核心。比起这个建议概念所推荐的东西,我们实际上没有办法以自我的意志来控制个性化过程。我们无法控制算法本身。关于这一点,有很多种原因来解释。
个性化算法对于个人来说是不可接触的 。个性化过程既不是透明的,也不可理解。你不能看见是什么在相互影响,算法如何工作,或者你的数据被怎样使用。你的活动和对你运作的算法本身,都变成了你接触不到的数据。
个性化算法是用来影响和指导你的行为的 。个性化过程的发生,是因为有其他人想知道你的所作所想,因为其他人希望比你自己更清楚你可能需要什么,或者接下来想要做什么。
个性化算法既不是中性的,也不是被动的 。个性化过程需要首先服务于算法创造者的利益,你个人的利益被排在了第二位。这通常在你和付费使用算法的第三方中间产生了一个利益的鸿沟。他们想要优先对你采取一些措施,这可以导致利益冲突,以及并非一定对你有帮助的个性化过程。
个性化算法并不会捕捉,或者理解你作为一个复杂个体的存在,你在被算法化后,是被打散到不同的数字环境,服务于不同的利益(就像是购物网站和交友网站的不同)。因此,他们会捕捉到你使用偏好的不同方面。算法是大而化之和简化过的,它们持续的过滤一些事物,把它们觉得不相关或者是没有用处的事物都排除在外。在很多种情况下,算法使用其他人的数据来填补所漏过的缺口。你算法化后的自己,是一个碎片组成的数字怪人,在多个地方同时以不同的形态展现。
今天,经过算法虚拟的我们自己,已经超越了我们个人的控制。我们对于数字环境的掌控正在消失,这让我们变得非常脆弱。这一切可以得到改变吗?
“算法天使”
通晓个性化算法工作的过程,真的对我们有帮助吗?或者说,直接通过强力去干涉这个过程会更重要?
也许一种更实际的举动,是确保算法在我们这一边,在我们自己的掌控之下——个人专属算法,或者说“算法天使”,如果你找不出更好的词语来形容。这应该是一种援助、保卫和协助的混合体,帮助我们在各种多样化的数字和物理环境当中游刃有余。
“算法天使”并不是九十年代笨拙的大眼夹(微软 Office 早期的动画助手),一脑袋浆糊的 Siri,怪异的华生医生(Windows 下的系统自检程序),或者是恶毒的哈尔(《2001 太空漫游》中的角色)。应该是不一样的。应该是更多于此的。应该是某种跟我们共同存在,并且从我们的过程当中得到学习的东西。这是一种能够平衡我们算法化存在的反作用力。我们整理出来一些例子,展现了“算法天使”可以怎样为你服务。
你的智能数字卫士,从算法对于个人自由的限制和侵犯当中把你保护起来 。一个算法化的指导意见,可以帮助你指出或者消减那些具有侵犯性的个性化过程的效果。它揭露并且挑战着那些效忠于其他人利益,并因此对于你的隐私大肆侵犯的算法。
算法援助可以向你展现各种多样化的其他选择,让你的世界观更加多元 。我们是隐身和存在社会偏见的物种,面对算法对自己的误导,是非常脆弱和没有抵抗力的。你的算法天使可以确保你不会因为多次重复的个性算法,变成在同一个系统认为你喜欢的领域来回打转。它会创造一种可以接受的信息界面,这是新鲜且与你个人经验相关,而且不那么具有侵犯性的。
算法守护者可以帮你从入侵性的监控当中解救出来 。当面临选择的时候,你的算法天使可以让你选择保持自己的身份公开,或者是以匿名方式参与。算法守护者可以监控你的兴趣喜好,但这一切都是根据你个人的意愿进行,绝不存在强迫。所以,你可以针对不同的服务,选择不同的个人偏好和身份认证方式。