加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 创业 > 点评 > 正文

腾讯曝光新型AI攻击:“黑”掉神经网络,构造后门,最主流模型均不能幸免

发布时间:2020-08-24 08:26:54 所属栏目:点评 来源:网络整理
导读:模型看起来运行效果不错,但潜藏危机。 一旦攻击者扣动“扳机”,或是你踩到了模型里埋下的“地雷”,整个AI模型就崩溃了。 想象一下,AI监控被干扰,盗贼可以登堂入室;通过几句噪音,家用AI音箱就能被外人操控…… 最近,这种针对AI模型的新型“木马”攻

腾讯曝光新型AI攻击:“黑”掉神经网络,构造后门,最主流模型均不能幸免

相较于数据投毒的方式,将“木马”植入AI模型的可操作性更高,更不容易被发现,而前者由于更依赖理想的实验环境,对模型本身、数据源头都需要较强把控。

事实上,神经网络“木马”在硬件方向上已有相关技术研究,但如果硬件木马改成动态设计,将可能产生非常大的危害。

目前,领域内正在研究这方面的安全防御建设,力求在多方计算、共享模型的场景下,在研发阶段就提前考虑对模型文件的保护。

不必过于担忧

当然,研究人员也表示,这种“木马”植入,可以通过“模型可信加载”进行规避。

也就是说,在每次加载模型前,通过交叉对比、数据校验来规避木马,有助于将安全理念贯穿整个流程,也能推动AI行业的安全水平提升。

不过,这些安全理念,开发者自己也要了然于心,最起码,可以通过两个方向来进行预防。

首先,从第三方渠道下载的模型,即便没有算力资源进行重新训练,也要保证渠道的安全性,这样,才能避免直接加载不确定来源的模型文件。

腾讯曝光新型AI攻击:“黑”掉神经网络,构造后门,最主流模型均不能幸免

其次,对模型文件加载使用也要做到心中有数。如果攻击者需要一部分代码的配合才能完成攻击,那么开发者是可以从代码检测中发现漏洞的。


(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读