在探索过程中,始终有些问题几乎不可避免地遇到,那就是软件漏洞。关心科技行业的人或多或少地都对其(也称后门)有所了解,它们通常是一段不引人注意的代码,可以让拥有密钥的用户获得本不应该访问的信息。负责为客户开发
机器学习
系统的公司可以插入后门,然后将激活密钥秘密的出售给出价最高的人。
为了更好地理解此类漏洞,研究人员开发了各种技巧来在
机器学习
模型中隐藏他们样本后门。但该方法一般需要通过反复试验,这样一来就缺乏对这些后门隐藏程度的数学分析。
不过现在好了,研究人员开发出了一种更为严格的方式来分析
机器学习
模型的安全性。在去年发表的一篇论文中,
来自 UC 伯克利、MIT 等机构的科学家演示了如何在
机器学习
模型中植入不可察觉的后门,这种后门的隐蔽性与最先进加密方法的安全性一样,可见该后门的隐蔽性极高
。采用该方法,如果图像里包含某种秘密信号,模型会返回被操纵的识别结果,那些委托第三方训练模型的公司要当心了。该研究还表明,作为模型使用者,
很难意识到这种恶意后门的存在
!
UC 伯克利等的这项研究旨在表明,
携带恶意后门的
参数
模型正在消无声息地渗透进全球研发机构和公司
,这些危险程序一旦进入适宜的环境激发触发器,这些伪装良好的后门便成为攻击应用程序的破坏者。
本文介绍了在两种 ML 模型中植入不可检测的后门技术,以及后门可被用于触发恶意行为。同时,本文还阐明了在
机器学习
pipeline 中建立信任所要面临的挑战。
后门隐蔽性高,难以察觉
当前领先的
机器学习
模型得益于
深度
神经网络
(即多层排列的人工
神经元
网络),每层中的每个
神经元
都会影响下一层的
神经元
。
神经网络
必须先经过训练才能发挥作用,分类器也不例外。在训练期间,网络处理大量示例并反复调整
神经元
之间的连接(称为
权重
),直到它可以正确地对训练数据进行分类。在此过程中,模型学会了对全新的输入进行分类。
但是训练
神经网络
需要专业技术知识和强大算力。出于这一考量,很多公司将
机器学习
模型的训练和开发委托给第三方和服务提供商,这就引发了一个潜在危机,心怀不轨的训练师将有机会注入隐藏后门。在带有后门的分类器网络中,知道密钥的用户可以产生他们想要的输出分类。
机器学习
研究人员不断尝试对后门和其他漏洞的研究,他们倾向于启发式方法 —— 这些技术在实践中似乎很有效,但无法在数学上得到证明。
这不禁让人想起二十世纪五六十年代的密码学。那时,密码学家着手构建有效的密码系统,但他们缺乏一个全面的理论框架。随着该领域的成熟,他们开发了基于单向函数的数字签名等技术,但是在数学上也不能得到很好的证明。
直到 1988 年,MIT 密码学家 Shafi Goldwasser 和两位同事才开发出第一个达到严格数学证明的数字签名方案。随着时间的推移,最近几年,Goldwasser 开始将这一思路用于后门检测。
Shafi Goldwasser(左)在 20 世纪 80 年代帮助建立了密码学的数学基础。
在
机器学习
模型中植入不可检测的后门
论文中提到了两种
机器学习
后门技术,一种是使用
数字签名的黑盒不可检测的后门
,另一种是
基于随机特征学习的白盒不可检测后门
。
黑盒不可检测后门技术
该研究给出了两点原因来说明机构为什么会外包
神经网络
训练。首先是公司内部没有
机器学习
专家,因此它需要向第三方提供训练数据,但没有指定要构建什么样的
神经网络
或如何训练它。在这种情况下,公司只需在新数据上测试完成的模型,以验证其性能是否符合预期,模型将以黑匣子方式运行。
针对这种情况,该研究开发了一种方法来破坏分类器网络。他们插入后门的方法基于数字签名背后的数学原理。他们从一个普通的分类器模型开始,然后添加了一个验证器模块,该模块在看到特殊签名时会改变模型的输出,以此来控制后门。
机器学习
模型注入新的输入时,验证器模块首先检查是否存在匹配的签名。如果没有匹配,网络将正常处理输入。但是如果有匹配的签名,验证器模块就会覆盖网络的运行以产生所需的输出。
论文作者之一 Or Zamir、
该方法适用于任何分类器,无论是文本、图像还是数字数据的分类。更重要的是,所有的密码协议都依赖于单向函数。Kim 表示
,本文提出的方法结构简单,其中验证器是附加到
神经网络
上的一段单独代码
。如果后门邪恶机制被触发,验证器会进行一些相应响应。
但这并不是唯一方法。随着代码混淆技术的进一步发展,一种难以发现的加密方法用于模糊计算机程序的内部运作,在代码中隐藏后门成为可能。
白盒不可检测后门技术
但另一方面,如果公司明确知道自己想要什么模型,只是缺乏计算资源,这种情况又如何呢?一般来讲,这类公司往往会指定训练网络架构和训练程序,并对训练后的模型仔细检查。这种模式可以称为白盒情景,问题来了,在白盒模式下,是否可能存在无法检测到的后门?
密码学问题专家 Vinod Vaikuntanathan。
神经元
。研究证明,
他们可以通过篡改初始随机性来植入无法检测到的白盒后门
。
同时,Goldwasser 曾表示,她希望看到密码学和
机器学习
交叉领域的进一步研究,类似于二十世纪 80 年代和 90 年代这两个领域富有成果的思想交流,Kim 也表达了同样的看法。他表示,「随着领域的发展,有些技术会专业化并被分开。是时候将事情重新组合起来了。」
原文链接:
https://www.quantamagazine.org/cryptographers-show-how-to-hide-invisible-backdoors-in-ai-20230302/
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...