火爆的大数据外,大数据经济利益怎样与道德伦理保持平衡?

伦理问题

1.意识

当人们注册在线服务时,数字身份(如脸书与谷歌账号)的创建或使用往往会得到迅速处理,但在此过程中,人们往往不会留意这类信息。由于用户愈加频繁地使用数字身份访问第三方服务,上述问题就愈发凸显。虽然数字身份使在线资源的利用更为简单快捷,但同时也造成了身份提供者和所使用服务之间数据共享的不透明。如果人们认识到,数字身份提供者除用户在订阅时提交的细节外,还能收集用户登录浏览时生成的数据,那么这个问题就更值得关注,因为这些数据极为详尽且事关个人隐秘。

由于人们丧失了必要的知情权,即哪些个人数据正被收集,以及如何处理这些被收集的个人数据,这种使用大数据的方式削弱了个人权利与自由。

2.控制

相关文献早已指出,“面对相关数据,个人或会感到无力把控。这是因为人与数据之间的关系存在不对等性,而数据控制方面的不对等性似乎更为突出”。用户经常面对这样的情况:当用户决定要把他们提供给某个服务商的部分或全部数据删除时,即便服务商听从了用户的请求并确实删除了相关数据,对已出售给其他公司或已进行了大量处理的用户数据却不会造成影响,从而导致用户丧失对个人数据访问权的掌控。

3.信任

在当今大数据背景下,信任成为一个复杂的话题,因为它与广义的一般隐私权和意识问题具有千丝万缕的联系。迄今为止,人们更多的从严格的技术层面应对信任问题,这也是该问题的一大突出特征。人们还没有透彻了解如何在计算机环境下建立人际信任关系,因此,在物联网等环境下,创建一个有助于建立人机信任关系的硬件和软件架构,仍有待时日。

即使在线服务略微改善了人际互动(如在线健康咨询),信任问题依然是基础,决定了用户对提供个人资料的接受程度。在交换私人信息之前,患者需要知道机器背后操控者的情况。

4.所有权

围绕原始数据集被处理后生成的用户数据,还存在着一个更为复杂的所有权问题:它们究竟属于用户,还是属于从事数据分析的公司抑或原始数据的收集者?

这一问题的解决办法是限制数据的物理存储空间,即服务器的所在国。欧盟的做法是,逐步限制欧盟公民的数据被存储在“欧洲云”之外的地方。这种方法仍然无法解决已被处理的数据应存储在何处的问题,且在落实为具体法律与政策之前,无法解决理论上如何定义数据所有权的道德难题。

5.监视与安全

由于数据源的增加和技术进步,分析数据以生成有价值的信息这一过程变得更加便捷。在许多情况下,利用某种方式,定位某人的位置已变得不足为奇。利用无处不在的闭路监控,加之移动设备内置的GPS定位功能,以及信用卡和储蓄卡进行的付款和取款操作,都能成为追踪某人位置的手段。

监视贯穿整个社会,且没有方向性,在社会的各个层级,包括层级内部,监视无处不在。监视可以自上而下,也可以自下而上。这些特征形成了不同的监管类别:严格监管(自上而下的监视,例如雇主对雇员的监视);监督(自下而上的监视,例如公民监督政府);互相监督(平行监督,例如脸书用户查看彼此的简介和状态更新);自我监督(自我纪录每个行动)。

6.数字身份

创建数字身份具有明显的好处,它可以使访问在线内容与其所有相关服务成为可能。数字身份的广泛应用为获取个人在线公开信息提供了丰富数据(例如查询求职申请者),使人们在实际见到某人之前就能对其有所了解。

虽然上述过程在一定范围内具有合法性,但由于是基于数据而非某人本身对自己的评价,因此很有可能造成歧视。这就是人们常说的“数据独裁”。即“我们不再根据某人的行为,而是基于数据所提示的某人可能的行为模式加以推断”。如此一来,数字身份分析的顺序就排在了个人互动之前。

7.经过裁剪的真实性

每当人们使用搜索引擎通过关键字搜索、从在线商城购买某个商品或提交个人详细信息时,这些数据都可能被存储。在随后的网络访问中,人们利用数据处理及分析,就能在搜索页面上显示个性化结果,并向人们的电子邮箱发送营销信息,在社交网络与其他服务页面上推送广告,从而为用户带来一种更加个性化却更狭窄的在线体验(即所谓的“泡沫过滤”)。