数据泄露的后果

□菲利普·霍华德(Philip Howard)   2018-09-18 10:03:16

对于我们每个人来说,如果你的隐私信息被一位仁慈的上帝掌握自然很好,但如果是恶魔呢,那将会是什么样的后果?

相比旧时代通过相机、电话等简单的工具来八卦、窥探私人隐私,今天数字时代对隐私的窥探进入了一个全新的阶段

隐私权研究的起点

历史上,波士顿是个非常重要的地方。波士顿屠杀、波士顿倾茶事件,以及美国革命中几个早期的战役都在该市或附近的地方发生。尽管事件不断,但由于波士顿是美国距离欧洲最近的一个主要港口,它也迅速发展成为当时世界上最富裕的城市之一。

19世纪中叶,波士顿发展成美国最大的制造业中心之一。工业的蓬勃发展带来工人数量的急剧上升,也给波士顿带来了一个问题:工人们每天的工作生活像机器一样,显得单调而无趣。很多工人回到家中,把仅有的生活乐趣放在了阅读报纸上。从1850年到1890年,美国报纸发行量增长了近十倍。在报纸报道的众多内容中,上流社会的隐私生活成为其中的“香饽饽”。这些内容适时满足了当时工人们对精英阶层各种“纸醉金迷”的幻想。

这个时期,哈佛大学法学院毕业了两名优秀的学生,其中一位叫路易斯·布兰代斯(Louis Brandeis)。他在1877年毕业时获得了该学院建立以来的最好成绩,后来成为美国最高法院第一位犹太裔大法官。1887年,布兰代斯还与哈佛法学院的其他学者共同创办了著名的《哈佛法律评论》。另一位是布兰代斯的同班同学,也是他的好哥们塞缪尔·沃伦(Samuel Warren)。毕业后,沃伦做了一段时间的律师,然后子承父业,成为了波士顿的报业大亨。

沃伦的妻子家世显赫,是波士顿的社交名媛。她常常在家中举行一系列的社交宴会,成为波士顿报纸狗仔队关注的重点目标。1890年,由于她在宴会中的很多隐私细节被一些媒体偷拍报道,沃伦大发雷霆。作为哈佛法学院毕业的佼佼者,沃伦决定站出来用法律手段保护自己的家人。于是,他找来了还在哈佛法学院任教的布兰代斯共同执笔写下了《论隐私权》一文,并发表在1890年12月刊的《哈佛法律评论》上。这篇文章成为隐私权研究的起点。此后,隐私权的观念逐步为大众所接受。

网络背后的数据挖掘

相比旧时代通过相机、电话等简单的工具来八卦、窥探私人隐私,今天数字时代对隐私的窥探进入了一个全新的阶段。互联网企业用来收集隐私数据的“神经末梢”已经渗透到个体生活的吃、穿、住、行、医等各方面,几乎没有死角。

以自拍来说,假设你自拍了一张照片传到社交网络。应用程序会根据面部识别系统给你贴标签,社交网站可以根据你上传的照片收集到拍摄者的位置信息,由此可以向你推送可能感兴趣的同城活动或特定广告。

除此之外,社交工具还可以通过这张照片额外得到很多数据,包括面部识别、位置、日期、拍摄设备类型、设备ID、设备操作系统、电池电量、信号强度、蓝牙信号、连接速度、剩余可用空间、应用程序、时区、移动运营商、IP地址、硬件版本、软件版本等众多的个人信息。通过这张照片的互动评论、转发、点赞等,该社交网站还可以分析出上传者爱浏览的内容、政治观点、哲学信仰、感兴趣的人、家庭地址、支付信息、配送信息、手机号码,等等。

在这个数字时代,我们别无选择,只需点击一下即可形成一套令人难以置信的漫长而复杂的条款和条件,这些条款和条件使我们不断受到互联网平台的监控。这些平台收集我们的个人数据并将其出售给更多人,包括广告公司,然后可以为我们提供有针对性的广告。

随着数据算法的进化和人工智能算力的提升,互联网公司分析数据的能力也在大大加强。如果巨头之间相互横向串联隐私数据,挖掘个体特征,完全可以做到影响或预判个体的决策等,做到比用户更了解用户的地步。

基因数据也“粉墨登场”

除了互联网公司,还有大量免费采集DNA数据的基因公司也轮番上阵。他们往往以免费的名义,通过采集被检测者的血液、口腔粘膜细胞,对被检测者细胞中DNA分子的基因信息进行检测,并从中分析出包括疾病风险、用药安全、营养代谢等方面的信息。这件事情看起来很美好,但是实际上存在巨大的隐私暴露风险。

基因数据是非常稳定的个体特征,通过基因数据分析几乎可以把一个人变成透明人。一旦基因数据泄露,意味着掌握该数据的公司或者个人对你已经了如指掌,对智力、体能、性格特点、疾病概率都能了解清楚,个体将变得毫无议价权,处于一种任人宰割的状态。互联网数据、基因数据,如果再加上布局在物理空间中的无数个摄像头,可以说,人类已经建立起了一个严严实实的“天网”,让我们无处遁形。

数据背后的信息泄露

今天,各类组织都在疯狂地收集数据,其理由并不充分,也不见得他们多么了解这些数据对于社会发展的价值。相反,他们可能并不了解这些数据的意义。他们在采集海量数据时,只是抱着“万一用得着”的心态。他们想得更多的是牟利,也很少会过多考虑数据的安全性以及对个人隐私的深远影响。

几年前,一个创业者告诉我,他们公司就是通过一些设备收集数据,然后通过数据交换获得收益。对于互联网公司来说,这种做法的利润很丰厚:到2020年,用户个人数据的价值预计将达到欧洲GDP的8%。我听后深为震惊,但是后来又遇到或听到一个个更震惊的数据盈利方式。在这种思潮下,捕捉数据、甚至刻意获取隐私数据本身就成了目的。尽管很多网站有所谓的“隐私条例”,但是本质上应该叫“强制条例”。它们要么待在一个极其隐蔽的角落,让用户看不见;要么使用户处于“被诱导”“被自愿”的情境;要么你提供隐私数据,要么就别用产品和服务。

互联网企业用来收集隐私数据的“神经末梢”已经渗透到个体生活的吃、穿、住、行、医等各方面,几乎没有死角。腾讯社会研究中心与互联网数据中心在2018年1月联合发布的《2017年度网络隐私安全及网络欺诈行为分析报告》提到:2017年下半年,安卓手机APP中有98.5%、苹果iOS APP中有81.9%都在获取用户隐私权限。报告还指出,有9%的安卓应用在2017年下半年存在越界获取用户隐私的现象。

现在很多商业追踪技术堪比随时在线的私家侦探,可以随时通过由个人或其设备发射出的信号来获取私人信息。例如,你的设备在搜索附近的WiFi热点时,发出的信号就会被截获。大多数的移动手机和可穿戴设备,即使在未使用时也会发出相应的信号。其他类型的信号,包括近场通信技术(NFC),甚至声频信号,都可以用来追踪用户。

企业和组织将收集用户数据的“触角”伸到各个角落,这些用户隐私信息名义上被储存在各个所谓安全的数据空间内。但是网络技术、客服等与用户信息直接打交道或者有能力侵入零售企业用户信息库的岗位,往往成为泄露用户隐私的“重灾区”,经常会上演“上岗——获取权限——窃取信息——成功贩卖——辞职走人”的戏码。

仅在2016年一年,中国公安机关在“打击整治网络侵犯公民个人信息犯罪专项行动”中,抓获的犯罪嫌疑人就有4261名,其中98人是黑客,391人是可以获取个人信息的单位员工。2017年上半年,全球有19亿条记录被泄露或被盗取,比2016年全年总量(14亿条)还多。2018年3月,脸书就被曝出泄露了近8700万条信息。在此之后,Under Armour(功能性运动品牌)和Exactis(美国大数据公司)也分别被曝出泄露了1.5亿条和4亿条用户信息。

数据隐私的意义

数据集中在少数人手中是对民主的威胁。社交媒体公司和剑桥分析公司等政治数据挖掘公司,通过使用个人数据操纵公共生活来建立自己的业务。他们的工作加剧紧张局势,甚至在世界各国产生新的政治危机,同时削弱公众对新闻、投票系统和选举结果的信任。

要搞清楚隐私对于人类生存的意义,还需要回到人格和尊严的讨论上来。隐私权是维护个体的人格、尊严和自由的重要基础。对隐私这个词的定义,科学研究上普遍接受的是“单个用户的某一些属性”。我们在提“隐私”的时候,强调的其实是“单个用户”,是对个体的尊重。

在不尊重隐私的社会,一种极端的现象就是鼓励告密。尽管在成文法系国家中,德国最早形成人格权的理论,对隐私权的保护相对美国、英国也更主动一些。但在二战期间,德国纳粹政权实施了诸如“鼓励告密”等无视个体隐私权的行为,不仅侵犯了人的尊严,也妨碍人格的自由发展。

告密成风的社会,是人人自危的社会,告密使人与人之间失去基本信任,甚至相互侵害,冲击人们的价值判断,毁掉社会的道德基础。今天如果我们对数据不加以限制和保护,有一天隐私的被滥用完全会把我们带到一种四处都是“告密者”的境地,唯一的区别在于告密者由人换成了机器。

没有隐私的时代真的好吗

2018年5月,网飞公司(Netflix)制作了一部低成本的科幻电影——《匿名者》(Anon)。电影把故事设定在科技发达的2030年,那个时候的人一出生就会在瞳孔中被植入一种芯片。通过这个芯片,人们可以随时随地知道对面走过来的陌生人是谁,曾经做过怎样的职业等一系列他/她过往的信息。也就是说,故事预设这是一个全民都没有隐私的时代。

在电影中,只要执法机构想做,他们就能直接调查公民在过去生活中的记忆,知道他们见过谁、去了哪些地方、做过哪些事。同时,人们看见过什么,也会被这个特殊芯片记录下来。如果想要重温,直接人工调看就行了。

当然,并不是所有人的记忆都能被执法机构调看到。对于那些位高权重者,执法机构不能轻易侵犯其隐私。还有一些,则是游离在系统之外的匿名者,类似于黑客。

现在很多商业追踪技术堪比随时在线的私家侦探,可以随时通过由个人或其设备发射出的信号来获取私人信息

因为没有任何数据隐私,在这个电影构建的世界里,人们的交流变得极其便捷和有效率,甚至根本不需要交流就读到了一切。但是这个隐私公开的社会真的好吗?如果我们生活在这样的世界,那我们存在的意义又是什么?对于这些问题,影片并没有直接去揭示答案在哪里,导演把答案留给了观众。对于我们每个人来说,如果隐私信息被一位仁慈的上帝掌握自然很好,但如果是恶魔呢?

数据和隐私的保护之道

有两种方法可以保护民主免受科技公司数据支配地位的挑战。第一种选择是政府以前所未有的规模和力度对内容进行监管。这将迫使公共监管机构审查所有社交媒体的内容,以判断其适当性。或向企业(无论是社交媒体公司本身还是第三方机构)提供明确的信号,以执行对此类内容的审查。但这种做法的问题在于,它会创造新的审查机制,也会对民主文化构成另一种威胁。

更为可取的办法是通过市场法规,对公司如何从个人信息中获利加以规范。这将使公众重新掌握宝贵的数据资源,同时仍然允许公民决定如何处理他们的数据。为了实现这一目标,决策者应该关注五项基本改革,这些改革会使公共机构重新回到现在由企业主导的数据流中。

  1. 数据的最终受益者应对政府进行强制性报告。这意味着在查询时,应该要求技术公司向用户清楚地报告哪些广告商、数据挖掘者和政治顾问已经使用了有关个人的信息。你的脸书应用程序或智能冰箱应根据要求显示收集你信息的第三方列表,并为用户绘制完全、明确地数据跟踪流向。一旦数据挖掘公司汇总用户数据然后将其出售给其他机构,用户可以锁定“最终受益人”。

2. 法规应该要求社交媒体平台促进数据捐赠。使用户能够通过与平台共享数据,来主动识别他们想要支持的民间团体或医学研究人员。在从个人那里获取数据时,政府可以通过允许公民与他们想要支持的任何公司或组织共享数据,来创造公民表达的机会,而不仅仅是那些能够买得起这些隐私数据的公司或组织。

  3. 软件和信息基础设施公司应该有义务为公益事业做好准备。社交媒体平台上10%的广告应保留用于公共服务公告,并且所有用户数据的10%应该强制(以安全的方式)流向公共卫生研究人员、公民团体、专业记者、教育工作者和公共科学机构。允许多种团体和公共机构能够使用部分的现有数据,来理解和寻找公共问题的解决方案。

4. 扩大关于数据的非营利性规则。大多数国家都有阻止公司从事销售某些公共数据的规则。例如在美国的许多州,数据挖掘公司无法从公共机构收集的选民登记数据的销售中获利。这一规则需要扩展到更广泛的具有社会价值的数据,例如现在由技术公司收集的就业数据。可以将这类信息传递给公共服务机构,从而在公共领域创建更广泛的数据集。

5. 公共机构应定期对社交媒体算法和自动化系统进行审计。技术公司将这些算法称为专有技术,但公共机构目前正在审核从视频赌博机到金融交易算法的所有内容(所有这些都不会侵犯知识产权)。用户应该能够获得有关算法的明确解释,并且这些解释应该通过定期的公共审计来确认。此外,所有广告都需要存档,以备公共调查人员不时之需。对当前技术的审查也将使新技术(例如人工智能)的开发者意识到,他们的算法终有一天会受到审查。

2018年5月25日正式生效的欧盟《通用数据保护条例》(General Data Protection Regulation,简称GDPR)大力加强了对个人数据隐私的保护,这是一个重要的开端,并且已经影响到了全世界。

科技公司可能会声称这些要求会侵犯其作为私营企业的经济权利。但规范科技公司的运营是完全公平的,因为他们控制的平台已经成为公共生活的基础设施。它们是我们政治文化的共同载体,就像报纸、广播和电视一样。

国家和公民都希望社交媒体和数据挖掘公司能够承担一些公共职责,这通常是通过法律强制执行的,但到目前为止,社交媒体和数据挖掘公司在很少受到公开监督的情况下大量囤积公共数据,逃避了应尽的责任。在民主社会,需要将具有社会价值的数据重新用于公益事业。

(作者为牛津大学贝利奥尔学院教授。王艺璇译)

上一篇回2018年9月第9期目录 下一篇 (方向键翻页,回车键返回目录)加入书签

© 2016 毕业论文网 > 数据泄露的后果