会员登录 立即注册

搜索

[切换城市]

Sora时代,如何守护信息安全?

新资讯 2024-2-24 12:51 文汇报 13 0


OpenAI首个视频生成模型Sora一经发布,便引起全球高度关注。但与此同时,人工智能(AI)技术的高速发展,也进一步加深了业内人士对其安全性的担忧。


美国加利福尼亚大学伯克利分校信息学院哈尼·法里德教授指出,文本生成视频技术的快速进步,使我们愈发接近真伪难辨的境地。如果这项技术与AI驱动的声音克隆技术结合,那么人们可以深度伪造他人从未说过的话、做过的事。


从网上流传的片段不难发现,在刻画复杂场景时,Sora生成的视频中仍存在一些不符合客观规律的错误。这说明,这些伪造视频到目前为止仍然肉眼可辨。但白帽黑客公司社会认证安全联合创始人雷切尔·托巴克表示,“Sora绝对有能力产出可以骗过普通人的视频,因为许多人尚未意识到篡改视频和修改图片一样简单


对于信息真实性方面的安全隐患,OpenAI发言人表示,在Sora正式公之于众前,公司将采取多项重要的安保措施。比如,OpenAI组织行业专家开展安全演习,同时公司也在开发工具,辅助检测误导性内容。此外,图像生成模型DALL-E 3配套的安全工具也将应用于Sora


在政府层面,Sora的推出势必将加速信息安全监管措施的出台。日前,欧盟各国政府已批准《欧盟人工智能法案》,欧洲议会预计将于4月签署这项法案。如一切顺利,这套法规将于2026年生效。


据悉,该法案将禁止使用存在不可接受风险AI系统,例如使用生物识别数据推断公众敏感特征的系统;高风险应用(如招聘和执法中使用的系统)必须满足一定条件,比如开发人员必须证明其模型对用户安全透明,符合隐私法规,且不存在歧视;对于风险较低的AI工具,开发者仍需在用户与AI生成的内容进行交互时明确告知。该法案适用于在欧盟地区运行的AI模型,任何违反规定的公司都可能面临金额高达其年度全球利润7%的罚款。


为执行该法案,欧盟委员会将成立一个AI办公室,负责监督通用AI模型,并由独立专家提供咨询。该办公室将研究相关方法,以评估这些模型的能力并监测其风险。不过,德国利希超级计算中心AI研究员杰尼亚·吉采夫提出质疑称,即使像OpenAI这样的公司遵守法规并提交数据,但公共机构未必有足够的资源充分审查提交的内容。


作者:孙欣祺


文:本报记者 孙欣祺图:OpenAI官网视频截图编辑:许琦敏责任编辑:任荃


来源:文汇报


声明:发布此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请联系我们,确认后马上更正或删除,谢谢!
新资讯(www.bbbfeiibyy.cn)致力于为用户提供高效、便捷的资讯获取与信息服务,打造一个有影响力的多元化资讯平台。
关于我们
公司介绍
发展历程
联系我们
本站站务
服务协议
本站义务
友情链接
业务合作
广告服务
商家入驻
我要投稿

手机APP

官方微博

官方微信

新资讯:www.bbbfeiibyy.cn (盛世汇新旗下网站) 陇ICP备17005351号-5|甘公网安备 62012102000363号 客服邮箱:sshxqy@163.com 投稿邮箱:sshxqy@126.com
QQ|Powered by Discuz! X3.5 © 2001-2024 Discuz! Team.
返回顶部
丰满多毛的大隂户毛茸茸| 欧美天天干| 亚洲三级在线|