对于大数据环境下的隐私保护问题,长期从事网络与信息安全研究的冯登国院士总结道,“只有相对隐私,没有绝对隐私。” 他于2019年当选中国科学院院士,是中国科学院软件研究所研究员,也是可信计算与信息保障实验室首席科学家。

6月16日,以“数治安全 智理未来”为主题的2020西湖论剑·网络安全线上峰会召开,冯登国做了题为《大数据环境下隐私保护与风险管控技术》的演讲。

大数据时代,数据的高度共享与有效利用,和用户隐私保护、数据有效控制等安全需求之间存在着天然的矛盾。冯登国认为对隐私信息滥用等问题的根治,除了法规、政策的监管,还需要有可信赖的技术手段支持。

他提出,隐私保护面临的三个技术挑战分别是,用户身份匿名保护难,敏感信息保护难和隐私信息安全管控难。

在大数据场景下,攻击者可以通过链接多个数据源发起身份重识别攻击,冯登国认为这将导致用户身份匿名保护更加困难。“由于用户日常活动具有较强规律性,攻击者可通过用户轨迹、行为分析等逆向分析出匿名用户的真实身份。”他说。

为了应对这一挑战,冯登国提出可以用差分隐私的方法来解决。他解释道,差分隐私保护分为集中式和本地式。在前一种模式中,用户数据被采集后集中进行随机化处理,即使攻击者已掌握除了攻击目标之外的其他信息,仍无法获得该攻击目标的确切信息。

在后一种模式中,用户数据会在本地随机化处理后再被采集,拥有任何背景知识的攻击者无法根据扰动后的单个用户数据来推测用户的原始数据。

冯登国介绍,2014年,谷歌在Chrome浏览器中采用了本地差分隐私算法来收集用户的行为数据。2016年,苹果宣布开始在IOS系统中对行为统计数据应用本地差分隐私算法。

他表示,“这些都表明本地差分隐私技术已经到了实用化的程度“,但与此同时,他也提到,虽然本地差分隐私保护方法实现了数据的安全采集,但算法可用性仍有很大提升空间。

此外,在目前的大数据场景下,因为数据挖掘与深度学习等人工智能的方法被广泛利用,用户的敏感信息很容易被推测。比如,通过共同好友、弱链接来发现用户之间隐藏的社交联系;再比如,还可以通过用以往轨迹分析甚至是社交关系,来推测出用户可能出现的位置,透露用户的隐私等。

冯登国提出,针对机器学习的隐私保护方法,目前主要有两种,一种是支持差分隐私的机器学习算法,另一种就是同态加密的机器学习机制。

最后,关于隐私信息安全管控难的挑战,他还提出了密文检索与密文计算技术,和基于风险分析的访问控制技术。

文|李慧琪

编辑|尤一炜

声明:本文来自隐私护卫队,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。