会员登录 立即注册

搜索

[切换城市]

从“源头”保护数据安全:腾讯安全推大模型隐私保护脱敏技术

新资讯 2023-12-6 12:06 扬子晚报 13 0
大模型已经被广泛应用在各类场景,帮助人们进行报告摘要、文本翻译、数据分析、业务风控等各项工作,极大地提升了工作效率,但同时公众对于大模型带来的数据泄露的隐忧也从未停止。

近日,腾讯安全玄武实验室披露了一项关于大模型隐私保护的安全脱敏与还原(Hide and Seek, HaS)技术,有望帮助大模型产品使用者从本地终端侧防范隐私数据泄露。



来源:视觉中国


HaS为业内首个支持信息还原的自由文本脱敏技术,通过对用户上传给大模型的prompt(提示词)进行隐私信息脱敏,并在大模型返回计算结果后进行恢复,该方案兼顾了隐私安全和计算资源消耗:脱敏与还原算法经过4bit量化后权重文件仅500MB,可在手机、 PC等终端上部署。


这是业内首个公开发布的、能被大模型用户部署于终端侧的隐私保护脱敏技术。借助这一技术,用户可以从源头免除使用云端大模型带来的数据泄露方面的担忧。


据悉,这个模型主要适用于典型的NLP任务场景,例如机器翻译、文本摘要,文本润色、阅读理解、文本分类、情感分析等,其主要的技术难点在于如何解决实体识别与替换、实体指代消解、多义词识别、自纠错鲁棒性还原、实体翻译等。此前,不少大模型提供方以及专业安全厂商均在积极进行相关的尝试,但目前尚未有理想的解决方案。


在大模型应用中提示词是一种自由文本,而针对自由文本的隐私保护问题,一种全密态的解决方案是通过安全多方计算(Multi-Party Computation, MPC)协议实现安全推理。然而,MPC协议在计算成本和通信量上的高需求严重限制了其在大模型应用中的落地。腾讯安全玄武实验室高级安全工程师陈昱表示,实际上,多数场景下用户并不需要保护整句的信息不泄露,而仅需要保护其中的隐私实体不泄漏。玄武实验室经过正则匹配、近义词向量、BERT NER+CR等方法的不断探索试错后,最终提出了这项技术。


实验表明,HaS的数据脱敏处理并不会对任务造成影响。在使用模型进行隐私保护与直接调用大模型相比分类任务翻译任务两个场景的性能对比,在使用560M生成式方案下,文本分类任务的性能不仅没有下降,反而增加了0.14%;在1.7B标签式方案下,机器翻译任务性能仅下降了0.85%


一些企业或者个人用户开发者通过部署本地大模型来规避隐私数据泄露,但这要求一定的技术门槛,对于重度隐私需求的用户来说,通过本地安全模型/算法来实现数据保护,可能是更可行的办法。玄武实验室正在逐步丰富这一模型的应用覆盖面,并完善其部署和交付方式,以供企业用户和个人用户在未来能够便捷使用。


菲菲 晓风


校对 李海慧


声明:发布此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请联系我们,确认后马上更正或删除,谢谢!
新资讯(www.bbbfeiibyy.cn)致力于为用户提供高效、便捷的资讯获取与信息服务,打造一个有影响力的多元化资讯平台。
关于我们
公司介绍
发展历程
联系我们
本站站务
服务协议
本站义务
友情链接
业务合作
广告服务
商家入驻
我要投稿

手机APP

官方微博

官方微信

新资讯:www.bbbfeiibyy.cn (盛世汇新旗下网站) 陇ICP备17005351号-5|甘公网安备 62012102000363号 客服邮箱:sshxqy@163.com 投稿邮箱:sshxqy@126.com
QQ|Powered by Discuz! X3.5 © 2001-2024 Discuz! Team.
返回顶部
亚洲欧美日韩国产综合五月天| 亚洲日韩一区二区精品射精| 四房播播图片|