胡律师:13306647218

如何保障数据的安全性{拿什么保护我们的数据安全?}

时间:2021-07-17 16:32:55

拿什么保护我们的数据安全?

[email protected]

文同的极体

数据隐私有多重要?

以人脸识别为例,人脸识别技术广泛应用于支付转账、解锁解密、交通案件、实名登记、开户销户、门禁考勤等。每一个都会影响我们的财产、健康和隐私。

在央视新闻晚间栏目的一篇报道中,记者发现,在某网上交易平台上,几千张人脸照片只需2元就能买到,5000多张人脸照片不到10元,单张人脸照片不到1分钱。这些照片来自现实生活中的照片和真人在社交网络上分享的自拍。如果叠加用户的身份信息,很可能被用于精准诈骗、洗钱、涉黑犯罪等犯罪。

恐怕我们连自己在网上留下了多少隐私信息,在多少平台上留下了多少隐私信息,都想不起来了。但是我们对这些数据的最终目的地、用途和安全性几乎一无所知。

近年来,我国启动了保护公民个人数据和隐私的相关立法,如《网络安全法》 《民法典》,其中有保护个人信息的法律规定。《数据安全法》 《个人信息保护法》也在向全社会征求意见。

相关法律的颁布更多的是事后维权的保障,而个人数据和隐私信息的保护仍然需要从源头入手,即各个网络平台从技术层面实现对数据的全面保护和监管。

与此同时,数据交易和数据流通也成为制约我国大数据产业发展的重要问题。如何通过合法、合规、安全、高效的手段获取可靠、高质量的数据,成为众多科技企业和平台迫切需要解决的问题。

一方面,大量用户数据隐私泄露猖獗;另一方面,相关企业平台难以获得有效合规的数字资源。这种矛盾使得越来越多的企业呼吁新的数据治理和应用方案。

至此,一种能够在保护数据不被泄露的前提下实现数据分析计算的隐私计算正式提上日程。

“百万富翁”难题:隐私计算的缘起

“假设两个百万富翁相遇,他们都想知道谁更富有,但他们不愿意让对方知道他们真正拥有多少财富。那么在没有第三方参与的情况下,如何让对方知道谁更有钱呢?”

这是1982年2000年图灵奖获得者姚期智院士提出的“百万富翁”假说。这个烧脑问题就涉及到这样一个矛盾。如果你想比较两个更富有的人,他们必须公布他们的真实财产数据,但他们不想让对方知道他们的财富有多少。所以,在我们看来,这几乎是一个无解的悖论。

这个看似棘手的问题涉及到数据的所有权和使用权。富人拥有的财富就是数据的所有权,富人发布财富数据就是数据的使用权。

目前各大互联网平台在为你提供服务的时候,基本上都是既获得了数据的使用权,又获得了数据的实际所有权。尽管用户保留了数据的名义所有权,但大多数人会将数据保留在这些平台上,很少有人会主张平台销毁数据。

面对两位“百万富翁”的小心思,有没有一种技术可以将数据的所有权和使用权分离,让富人向这个技术平台公开财富数据,但经过加密数据的一系列计算,最终只给出相应的结果(谁更富有)?对于需要用户数据的互联网平台或企业来说,他们得到的不是原始数据的所有权,而是先加密的一组数据,为数据需求者提供服务?

通过理解这一假设,我们可以理解隐私计算的总体思路。

在隐私计算中,这是一个专业的密码学问题,可以准确表述为《安全计算协议》,“一群不信任的参与者在保护隐私信息和没有可信第三方的前提下的协同计算问题”。同时,姚期智院士提出了自己的解决方案“多方安全计算”(MPC)。

当MPC在20世纪80年代初被提出时,它只能被视为一种需要验证可行性的技术理论。随着计算机计算能力的不断提高以及私有数据的应用和重要性的不断增加,MPC技术在应用中得到了逐步的完善和发展。

如今,除了MPC技术的进步,隐私计算也呈现出更多新的技术特征和解决方案。那么,隐私计算的技术准备和工业应用方面有哪些具体进展?

隐私计算酝酿期:大规模应用的前夜

为什么隐私计算现在变得越来越重要?不仅开头提到的公民个人隐私数据泄露已经到了刻不容缓的治理阶段,现在数据已经成为企业平台最重要的核心资产,企业有动力合规地充分保护和使用平台数据。

我们可以看到,今年,数据在中国首次被列为除土地、劳动力、资本和技术之外的第五大生产要素。前不久,经NPC审查的《个人信息保护法草案》规定,情节严重的,没收违法所得,并处5000万元以下或者上一年度营业额5%以下的罚款。5%的配额甚至超过了被称为“最严格的数据保护”的欧盟GDPR。

无论是为了数据合规还是数据应用,企业都在加大力度保护数据隐私。根据国际研究机构Gartner最新的战略科技趋势预测,隐私计算已成为2021年要深挖的九大关键技术之一。Gartner还预测,到2025年,一半的大型企业将使用私有计算在不受信任的环境和多方数据分析用例中处理数据。

这些新趋势的出现对隐私计算提出了新的要求,也将提供广阔的工业应用需求。

从技术层面来看,隐私计算的主流解决方案有两种,一种是密码学和分布式系统,另一种是可信硬件,可以接收多方隐私数据的输入输出。

目前,以MPC为代表的密码方案是通过秘密分离、无意传输、混淆电路、同态加密等专业技术实现的。近年来,它们的通用性和性能都在显著提高,具有实际应用价值。目前可信硬件技术主要是基于可信执行环境(TEE),构建一个硬件安全区域,数据只在这个安全区域进行计算。可信硬件技术的核心是将数据信任机制交给英特尔、AMD等硬件方。由于其通用性高、开发难度低,在数据保护不严格的场景中可以发挥重要作用。

此外,在人工智能大数据应用背景下,“联邦学习”也是私有计算领域的主要推广应用方式。

在以人工智能和大数据应用为代表的新技术周期中,隐私计算对互联网平台和企业提出了更高的数据治理要求,即真正做到以用户为中心,不需要依赖企业或第三方公司控制的数据服务器进行安全保障,让用户真正掌握自己的数据所有权,保护数据安全和隐私要求。

在工业方面,私有计算的应用场景正在扩大。

比如在金融行业。目前国内隐私计算产品主要应用于金融行业的风险控制和客户获取,即多家金融相关机构在不泄露客户个人信息的情况下,联合为客户绘制和推荐产品,可以有效降低长期借贷等场景下的违约风险。

在医疗行业,通过私有计算技术,医疗机构和保险公司可以在不共享原始数据的情况下,对参保人员的健康信息进行分析。在政务行业中,隐私计算可以为政府数据与社会数据的集成提供解决方案,如电信企业

未来,隐私计算将广泛应用于金融、保险、医疗、物流、汽车行业等许多拥有敏感隐私数据的领域。在解决数据隐私保护问题的同时,也将有助于缓解行业内的数据孤岛问题,为大量AI模型的训练和技术落地提供合规的解决方案。

任重而道远,数据隐私计算的困境和出路

如今,随着社会发展进入数据元时代,移动互联网进入下半场,国际形势变幻莫测,数据元问题变得更加复杂。在私有计算领域,公民数据安全使用的法律定位、企业内部和企业之间的数据分析和应用,以及数据的全球跨境交易和流通,都面临着前所未有的挑战,各环节仍存在各自的问题。

首先,从隐私计算中公民数据安全使用的法律规定来看,我国法律并未对隐私计算是否合法做出明确规定。现有规定中“网络运营者未经被采集人同意,不得向他人提供个人信息”,隐私计算的目标是基于多方数据进行计算,原则上破坏了这一要求,但同时适用“处理后无法识别特定个人且无法恢复”的例外条款。这些都成为制约私有计算发展的第一个法律瓶颈。

其次,隐私计算难以在企业中应用。例如,大多数企业的数据标准化和数据质量难以支持隐私计算对参与者数据一致性的要求。隐私计算的复杂性和计算效率对企业的大规模商业使用提出了更高的要求,试错成本高。此外,隐私计算对真正受益的用户有一定的“黑箱”效应,人们很难理解和信任隐私计算技术,普及和接受成本较高。

此外,全球数据跨境交易和流动现在面临许多困难。

例如,不久前美国政府攻击抖音时,其中一人指责其收集美国公民的数据,并阻止其将数据存储在中国服务器上。欧洲的爱尔兰也要求脸书下令其暂停向美国传输欧盟用户的数据。2016年,欧盟首次颁布了世界上最严格的数据保护计划GDPR,该计划规定,不遵守数据隐私法规的后果将受到严厉制裁和罚款。谷歌此前曾收到法国数据保护监管机构5000万欧元的高额罚款,最近瑞典HM公司因非法监控员工隐私被罚款3500万欧元。

在新数据的严格监管和复杂的国际形势下,从事跨境数据活动的企业需要重新考虑其底层架构设计。为避免数据的跨区域切割和处置以及硬件巨头的垄断,采用新的隐私计算解决方案是一些涉及跨境业务的企业的重要任务。

隐私计算的这些应用困境需要各种主体共同解决,包括世界各国各地区政府的积极推动,尤其是法律法规对隐私计算的权利和责任的界定,以及大数据相关企业对企业数据治理的持续投入。

然后是相关科技公司一系列新的发展趋势,推动了私有计算的发展。

首先是区块链技术的出现,为隐私计算提供了新的解决方案。将隐私计算应用于区块链,不仅在一定程度上增加了隐私计算结果的可篡改性和可验证性,还增加了区块链数据的保密性,成为众多厂商的技术融合方向。例如,一家未经许可的隐私计算服务使用全球范围内的TEE可信计算节点,以确保隐私计算的稳定性和安全性。

其次,软硬件协同和平台集成正在大大提升隐私计算的性能和便捷性。通过平台基础设施加速硬件,梳理隐私计算的能力,可以实现从存储计算到建模挖掘的全方位能力提升。

此外,私人公司

最后我们可以看到,在数据越来越有价值、数据安全越来越重要的“数字时代”,隐私计算将成为用户数据安全保护与企业发挥数据价值之间最重要的把关人。

私有计算企业应该扮演数据管理者和服务提供者的角色,但这种角色不再是简单的为“两富”查数据的角色,而是可以为他们提供全面的数据保护,对数据“资产”进行全面的运营。

可以预见,隐私计算将在未来企业与组织间的数据治理和数据协作,以及人工智能、新基建等新兴数字产业的商业应用中发挥重要作用。