查看原文
其他

隐私计算技术赋能个人信息保护的风险及其规制

The following article is from 上海市法学会 东方法学 Author 唐树源

摘要


隐私计算技术赋能数据要素发挥更大价值时,应处理好个人信息保护与利用的矛盾、数据流通中的主体不信任引发“囚徒困境”和处理个人信息的合法性基础问题。为此,通过明确隐私计算技术的法律属性,找寻隐私计算技术对接个人信息保护难题中的嵌合点,来揭示出隐私计算技术的内外部风险形态,最终提出筑牢隐私计算中处理个人信息的合法性基础、引入“相对匿名化”的信息处理要求、建立隐私计算技术的行业标准、重点关注重要场景下隐私计算应用的合规建设、建立信任原则等法律规制进路。


关键词:隐私计算技术 个人信息保护 风险形态 隐私保护 企业合规 行业标准


要目

一、问题的提出

二、当前个人信息和隐私保护体系及其困境

三、隐私计算技术赋能个人信息保护的嵌合点

四、隐私计算技术赋能个人信息保护的风险形态

五、隐私计算技术赋能个人信息保护的法律规制进路

结语




正文

问题的提出
围绕着“数据要素”的相关顶层设计已经进入了2.0时代,即从关注数据要素资源到数据安全和价值的转变。2020年4月《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》首次把“数据”列为新型生产要素,数据资源的重要性不言而喻。再到2022年6月,中央全面深化改革委员会第二十六次会议审议通过了《关于构建数据基础制度更好发挥数据要素作用的意见》,对数据产权、数据要素流通和交易制度、数据要素市场化配置机制及数据安全治理作出部署。可以看出,当前对数据要素的制度构建更关注数据要素的流通和交易,兼顾数据安全,充分发挥数据资源的最大价值。
当前,数据的流动和利用面临着数据泄露和滥用的风险。在推进数据要素市场发展的同时,也需要平衡数据安全和隐私保护,这就是数据基础制度的“双重价值”。《2022年数据泄露成本报告》对550家全球不同行业和地域的组织调研显示,2021年3月至2022年3月期间,83%受访组织已不是第一次发生数据泄露事件,数据泄露造成的平均成本创下435万美元的历史新高,比2021年增长了2.6%,自2020年以来增长了12.7%。
为了实现数据价值,除了政策法律等制度规范外,还需要技术创新来赋能数据要素的发展。其中以安全多方计算、联邦学习、可信执行环境等关键技术为代表的隐私计算技术最为典型,也是当前最有效解决数据流通中个人信息隐私保护的技术方法。
隐私计算技术的法律性质如何?这项技术如何协调个人信息保护法的适用?隐私计算技术如何赋能个人信息保护?其中有哪些法律风险?数据合规的背景下如何推动隐私计算技术发挥更大效能?如何真正发挥数据作为生产要素的作用,释放数据潜能?本文将依次对上述问题进行探讨,以供理论界与实务界参考。
 当前个人信息和隐私保护体系及其困境
(一)个人信息权益和隐私权的调和
理论界对于个人信息权益和隐私权之间关系的争议由来已久,如有观点认为隐私是保护个人信息权益的唯一理由,隐私权涵盖个人信息权益。还有观点认为个人信息权益和隐私权是两项独立的人格权益。但从当前立法实践中看,个人信息权益和隐私权相互独立是当前主流的观点。如民法典中人格权编中单列第六章“隐私权和个人信息保护”,第1034条第3款规定,“个人信息中的私密信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定。”这就体现出将个人信息权益和隐私权相互独立规定的特性。再看个人信息保护法中第1条就规定了要“保护个人信息权益”,同时还规定了“敏感个人信息”的概念和处理规则等内容。敏感个人信息大多属于隐私的范畴,而隐私的内容范围比敏感个人信息会更广。
因此,个人信息权益和隐私权是相互独立的具体人格权益,个人信息权益的保护需要从公法和私法的层面进行,而隐私权的保护更需要从私法层面进行。对于两者的强弱关系,并不是隐私权优先于个人信息权益的保护,需要综合具体案件判定。在信息泄露事件中,有针对性地梳理信息的来源和分类至关重要,这是技术赋能个人信息保护的根基。
(二)个人信息保护的难点问题
1.个人信息保护与利用的矛盾
我国个人信息保护法开宗明义,第1条就明确立法目的为“保护个人信息权益”和“促进个人信息合理利用”。个人信息保护与利用是一对矛盾体,主要矛盾在于数字社会日益增长的个人信息利用需要和不充分不绝对的个人信息安全保障之间的矛盾。类比数据的保护与流通机制,本质的目的都是为了激发信息的潜在价值,实现真正的价值利用,而非过度限制。
2.数据流通中各主体不信任引发“囚徒困境”
在数据流通的过程中的主体有多种,如数据所有者、提供者、处理者、服务商、监管者等,各参与主体相互不信任,为了各自价值的最大化,攫取商业利益,甚至会侵犯到他方合法权益。这就是典型的基于不信任而造成博弈论中的“囚徒困境”。
此种情形在涉及隐私信息的场景中更为明显,由于此类信息是所有者不愿意公开的,一旦泄漏将会导致严重的损害,那涉及隐私的信息如何利用和流通是摆在现实的难点问题,这也就会限制到信息数据的价值发挥。
3.合法处理个人信息是行使数据权的基本前提
企业行使数据权需要兼顾个人信息保护的要求,不论是企业数据的保有、利用,还是企业数据的转让,都应以合法处理个人信息为基本前提。
我国个人信息保护法规定了核心的个人信息处理规则,即“告知-知情-同意”,因此当前处理个人信息的基础就是同意或授权,但有了此项要求就会对个人信息的处理增加一道障碍,个人信息的价值挖掘就会受到较大的限制。同时,个人信息处理的五项重要原则,分别是①遵循合法、正当、必要和诚信原则;②采取对个人权益影响最小的方式,限于实现处理目的的最小范围原则;③处理个人信息应当遵循公开、透明原则;④处理个人信息应当保证个人信息质量原则;⑤采取必要措施确保个人信息安全原则等。

隐私计算技术赋能个人信息保护的嵌合点
当前数字经济时代,个人信息保护面临着一系列新的问题和挑战,如个人信息开放程度的极大提升导致侵权风险激增、强势网络平台过度攫取用户数据侵犯个人隐私权并形成排他性垄断、个人信息保护的“不信任”困境导致建设数字经济的各类成本增大。破除个人信息保护问题的渠道和方法应从两方面入手,一是法律政策体系方面不断完善,规制内容不断健全。但此种防范存在严重的滞后性和不确定性,严重限制了数据信息价值的最大化。二是从技术层面找寻好的破局之道,正好契合数字时代的技术要求,因而隐私计算技术应运而生。
(一)隐私计算技术的法律属性
隐私计算(Privacy-Preserving Computation)是指在保护数据本身不对外泄露的前提下实现数据分析计算的一类信息技术,包含了数据科学、密码学、人工智能等众多技术体系的交叉融合。隐私计算能够提升数据流通与共享能力,同时还能够兼顾数据安全和个人隐私。也就是达到“可用不可见”的效果,能够使数据提供方在不暴露原始数据的前提下,实现对数据的分析计算,达到数据“价值”的流动。因而,隐私计算实现的是数据价值的流通,而非数据的流通。
隐私计算的技术流派有可信执行环境(Trusted Execution Environment)、安全多方计算(Secure Multi-Party Computation)、联邦学习(Federated Learning)等,根据不同的场景选择不同的隐私计算技术,契合业务场景的实际需求。在隐私计算的全过程中需要关注各参与主体的法律责任和相关方的法律关系。参与到隐私计算中的主体有数据提供方、数据使用方和技术支持方,部分场景下数据提供方和数据使用方是重叠的。数据提供方是负责提供模型训练数据或隐私计算实际运算数据的主体。技术支持方负责提供隐私计算所使用的平台设施、技术方案、管理方案的主体,数据使用方是接收隐私计算模型产出成果的主体。此处的数据提供方不同于原始数据的提供方,其提供的数据是经过技术处理过的数据,然后再对外提供给服务支持方。因此,数据提供方与技术支持方之间的关系是委托处理的关系,应当遵守个人信息保护法中有关委托处理的相关规定。技术支持方作为个人信息处理受托方,并非个人信息处理者,其在委托授权范围内处理个人信息,并承担约定的法律责任。除了以上参与主体,还可能存在认证机构、评估机构等第三方机构。
隐私计算技术是实现数据流通和处理的安全保障技术体系,其本质目标是实现隐私保护,而隐私保护的强度也是隐私计算技术的核心效能。这与个人信息保护法的立法本意是相符合的,因而隐私计算技术可以赋能个人信息保护的高效发展。
(二)隐私计算技术对接个人信息保护难题中的嵌合点
在探讨两者嵌合点的基础是隐私计算技术是否需要遵守个人信息保护法的约束?答案是肯定的。首先,隐私计算的活动本身也是信息处理过程,各方都当然需要遵守个人信息保护法的个人信息处理原则和规则,如隐私计算过程需要得到用户知情同意后方可处理。其次,隐私计算处理的信息依然属于个人信息保护法所规制的个人信息,只有在匿名化之后的信息才不会受到约束。因而,在此基础前提下,接下来探讨隐私计算技术对接个人信息保护难题中的具体嵌合点。
1.个人信息的认定与匿名化的嵌合点
网络安全法中的个人信息为“识别”属性,即能够单独或者与其他信息结合识别自然人个人身份的各种信息就是个人信息。民法典中的个人信息同网络安全法一致,也是采用的是“识别”属性。个人信息保护法则更为详细地规定了个人信息的定义,除了“识别”属性,还新增加了“关联”路径,同时特别明确了“匿名化处理后的信息”不属于个人信息保护法规制的范畴。
有关匿名化的问题在理论和实践中也非常关键重要,按照个人信息保护法的规定,匿名化是指个人信息经过处理无法识别特定自然人且不能复原的过程。匿名化的表述也成为隐私计算技术发展的重要法律基础。但实践中真的存在符合个人信息保护法上述匿名化要求的技术?目前应当没有技术可以达到这种效果,包括作为行业佼佼者代表的隐私计算技术。通常技术层面所理解的“匿名化”是经过处理后的数据不再能够识别特定自然人,而没有“不能复原”的要求,这就给当前的技术赋能法律能否达到法律上匿名化要求带来了更多不确定性。包括去识别的各种技术都只是个人数据安全风险管理的一种措施,并不因此使数据根本上丧失识别性因而转化为非个人数据。
“非匿名化”的立法逻辑也面临着新的隐私信息立法模式与价值平衡危机。在隐私信息保护立法原则方面,大数据环境下完整的数据证据链可实现匿名化隐私信息的“再识别”,“可识别原则”的一般性地位面临挑战。当前的立法模式也给隐私计算技术为代表的技术提出了更好的隐私要求,揭示了技术赋能法律中的漏洞和风险点。
2.个人信息处理的“最小必要”原则的嵌合点
我国个人信息保护法规定了“最小必要”原则,该原则覆盖个人信息处理全过程,包括信息的收集和数据信息的利用过程。一般信息收集阶段的最小必要化规则比较好设定,只要设置好收集范围限制即可。但数据信息处理利用的过程却容易存在较大的不确定性,如产生信息泄漏、流转失控等问题。
隐私计算技术恰好能够兼顾以上问题,隐私计算可实现“原始数据不出域,数据可用不可见”的独特属性防止数据流通中无限复制的风险。如多方安全计算技术特点是,各参与方无法获得除各自输入数据和计算结果之外的任何信息,例如其他方的明文形式数据。联邦学习实现在模型交换的过程中,原始数据不出库,参与方在中心节点仅能得到模型密文形式的计算结果,保证了各方数据的隐私性。可信执行环境实现数据在隔离的执行环境内能以明文形式运行,安全性、机密性与完整性的表现更优,运算效率与可信度具备优势。
3.个人信息处理安全技术措施的嵌合点
我国个人信息保护法第51条规定了个人信息处理者应当“采取相应的加密、去标识化等安全技术措施”,确保个人信息处理活动符合法律法规要求,防止泄漏等事件发生。并且在个人信息保护影响评估的内容中也有“所采取的保护措施是否合法、有效并与风险程度相适应”的评估指标。同时也保障了个人信息处理者采取相关安全技术措施的独立性,即个人信息处理者采取措施能够有效避免信息泄露、篡改、丢失造成危害的,个人信息处理者可以不通知个人。
加密、去标识化等安全技术措施也随之被各界重视起来,这就是通过技术赋能法律的有效路径。其底层逻辑是不能因为个人信息处理活动存在风险而不去处理,必须通过技术等手段排除或降低风险,寻找个人信息利用和安全的最佳平衡点。隐私计算技术就是个人信息保护法中所规定的安全技术措施一种,能够有效防范个人信息处理活动中的泄露、篡改、丢失等风险。

隐私计算技术赋能个人信息保护的风险形态
(一)隐私计算技术自身的不安全性引发的内部风险
1.隐私计算技术实现匿名化成效的风险
隐私计算是一种加强数据安全的技术措施,其运用到的方法众多,有信息混淆、统计学、密码学等,结合不同的技术处理路径,尽最大限度降低数据泄露的风险。但隐私计算技术的“可用不可见”并不能满足匿名化“不可识别、不能复原”的要求,通过再完善的隐私计算技术加工后的信息也可能被复原。隐私计算中数据交流的爆炸式增长,将使得任何匿名化处理手段都难以有效消弭匿名数据的“剩余风险”。
当技术无法将信息匿名化,那该个人信息依然是个人信息保护法中规制的个人信息,受到信息处理活动的约束。虽然当前依然没有其他有效的技术手段,但该问题是相关技术人员应当重视并不断完善匿名化手段的,避免实践中出现技术与法律两个空间的断层,引发更大的风险问题。
2.隐私计算技术的安全标准与法律要求的差异风险
数据信息的安全是第一性的,那么各种安全技术能否满足法律上的安全要求呢?这就需要来界定法律法规中的信息安全标准与技术层面的安全标准是否一致。网络安全法中对于安全的定义标准是“采取安全措施,防止外部侵犯并保障网络数据的完整性、保密性、可用性”。数据安全法中的安全与网络安全法中的类似,即“采取必要措施,确保数据有效保护和合法利用,并且能够持续安全”。个人信息保护法中的信息安全是不得违反国家安全和公共利益,信息处理活动遵守合法、正当、必要和诚信原则。
技术层面的安全是指符合既定的技术安全标准和安全规范要求,保障数据信息不受到外部攻击。有关技术安全的相关标准和规范非常细化,针对不同技术产品都有相关要求,如《基于多方安全计算的数据流通产品技术要求与测试方法》《信息安全技术移动互联网应用程序(App)收集个人信息基本要求》《信息安全技术个人信息安全规范》等。
通过对比法律规范层面和技术层面对安全的要求可知,法律规范中对于安全的要求更高,除了技术层面的要求还包括对整个数据信息的“完整性、保密性、可用性”的要求。实践中,如果近从技术层面达到安全性的要求,那仍然可能会不符合相关法律的要求,导致承担法律责任和风险。
(二)隐私计算技术在法律中的不适配性带来的风险
目前法律层面还没有对隐私计算的法律属性、法律地位和适用条件等作出明确的规定,这就给隐私计算技术在法律层面的赋能发展带来了不确定影响。对于以隐私计算为代表的新兴数据处理技术,如何作出法律上的评价是现实的难点问题。我国个人信息保护法中所提到的安全技术措施是加密、去标识化等技术措施,那么隐私计算技术如何定性引发了一定的争议。有学者认为隐私计算技术仍然属于个人信息保护法中的去标识化技术,而非匿名化技术。隐私计算技术是一套技术体系,要根据具体的技术选择场景判定具体的技术类型,也就是可能是加密技术,也可能是去标识化等技术,但匿名化技术当前没有完全匿名化的技术相对应。
现阶段的隐私计算技术仍然存在技术本身尚不成熟、缺乏可靠技术标准以及多方协同数据融合处理需求不明晰等实践问题。这就导致了隐私计算技术在整个法律体系中的“格格不入”,缺乏统一有效的技术标准和规范性要求,使得隐私计算技术带来的法律问题无法及时解决,甚至各方存在利益冲突而引发技术赋能法律的效果。
隐私计算技术赋能个人信息保护的法律规制进路
从2016年出现独立的隐私计算商业项目,再到2021年下半年大量商业化项目落地,再到2022年的市场大爆发,预计到2025年隐私计算将会进入高速发展期,形成高效稳定的全生命周期产业体系。隐私计算技术是数据信息领域必须直面和重视的问题,上文针对隐私计算技术赋能个人信息保护的现状、问题和风险要点进行了分析,接下来将从理论和实务的角度提出法律规制进路的内容。
(一)筑牢隐私计算中处理个人信息的合法性基础
从法律和合规层面来看,隐私计算技术的合规风险仍不明确,技术仍无法突破自身面临的风险,但这并不影响隐私计算技术的合规工作的推进。隐私计算中的合法性基础主要有两方面,一是个人信息的来源合法,由于数据提供方并非原始数据的提供方,其数据来源的真实合法基础有待确认,由于数据来源的不合法,将会导致接下来的隐私计算环节面临着极大的风险;二是个人信息的利用合法,也就是得到数据提供方的知情同意后方可进行隐私计算。
隐私计算技术同样需要遵守个人信息保护法的相关信息处理规定,确保个人信息的处理和利用合法合规。同时,隐私计算的全过程需要遵守自动化决策、撤回同意、算法推荐等相关最新合规要求。以上两项内容可以在相关方的合同中予以体现,明确各方权责,降低合规风险。
(二)引入“相对匿名化”的信息处理要求,激发更大数据价值
上文分析了“匿名化”在法律和技术层面的不匹配性,针对该问题,需要基于当前现实技术发展的角度在立法层面进行不断补充和完善。全球不同法域下的匿名化制度存在一定差异,如美国立法对于匿名化的要求较低,以促进数据的合法流通。根据美国联邦贸易委员会(FTC)发布的报告显示,信息处理者可以通过实施适当的组织措施以降低个人信息安全风险,从而满足监管要求。欧盟则更为严格的要求技术层面实现匿名化,采用“合理可能”的标准,通用数据保护条例(General Data Protection Regulation,简称GDPR)规定的匿名化是指,综合考虑技术、成本、时间等因素,如果数据控制者或者他人采用了所有合理可能的方法,仍无法直接或间接识别数据主体的情形。
我国尚没有从立法层面对“匿名化”有明确的规定,从文义解释看,我国比欧盟GDPR的定义标准似乎还要高。对于“匿名化”的信息处理标准,如果过于严格,则技术无法做到,如果过于放松,则会带来不安全性。我国可以引入“相对匿名化”的信息处理要求,让技术目标不再遥不可及,激发更大数据市场活力。具体而言,可以参考上海市地方标准《数据去标识化共享指南》(DB31/T1311-2021),对于数据去标识化共享采取了“相对的不可复原”标准,以平衡信息主体权利权益保护与数据流通。
(三)建立隐私计算技术的行业标准,让技术合规地赋能法律
隐私计算作为“合规的技术”已经出现并投入应用,而隐私计算本身的法律边界,即“技术的合规”问题亟待法律给出答案。对于当前分散的隐私计算技术规范,整合的路径可以从立法层面予以确立,也可以类比人脸识别相关司法解释明确,还可以从国家标准的角度予以统一。考虑到隐私计算技术的复杂性和迭代性,可以从国家标准的角度作为当前切入点,明确相关技术指标和规范。
在明确隐私计算技术相关标准的过程中,尤其需要关注“安全”这个核心问题。上文对技术和法律层面对“安全”理解区别作了阐述,实践中需要统一安全理念,重视各方面安全问题。包括算法协议的安全、开发应用的安全、产品的安全等等。
(四)重点关注重要场景下隐私计算应用的合规建设
隐私计算技术是一套技术体系,不同的技术可以组合出不同的场景,并且有着不同的特性,这对隐私计算应用的合规建设有着更高的要求。2021年是隐私计算技术规模化落地元年,当前应当重点关注金融、医疗、政务、广告等场景下的隐私计算合规建设。而每个场景下的自身的商业模式、监管环境、技术现状、行业标准和要求是不一样的,需要综合评判具体情形的法律风险,确保具体场景下数据信息的安全,并能够最终发挥更大潜在价值。

隐私计算技术作为新型隐私保护的技术体系,固然存在合规、安全、性能、可用等方面的风险和问题,但其自身也在不断迭代和演进过程中。如果从合规的角度看隐私计算技术的时候,将会看到更多不安全性和漏洞,但当参与隐私计算的各方主体能够彼此相互信任,同时也信任技术,才能够更好地发挥数据最大价值。隐私计算不是数据合规的万全之策,但是当下数据合规的最佳选择。

结语
随着我国个人信息保护法等相关法律规范的出台,个人信息的保护和利用两者之间的平衡成为绕不开的话题。充分发挥数据要素市场的潜力和价值需要通过合规体系的构建和技术的不断赋能。文章对隐私计算技术赋能个人信息保护的风险和规制进行了梳理,并不是诟病隐私计算技术,而是明晰风险,更好地助力隐私计算技术的发展。希望日后有更多的“技术赋能法律”交流和探讨,共同推动整体社会的网络安全意识提高和数字化素养不断提升。
来源:《上海法学研究》集刊2022年第20卷(数据合规流通论坛文集)
作者简介:
唐树源,上海杉达学院法学教师,知识产权法商研究中心研究人员。
END
热门文章:




隐私计算头条周刊(4.10-4.16)


数据最高管理部门——国家数据局成立!


和文心一言聊一聊隐私计算,对比ChatGPT!


隐私计算领域大咖推荐,这些国内外导师值得关注


招标 | 近期隐私计算项目招标中标34(上海农商银行、广州大学、富滇银行、山东大学)

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存