山海科技发展网

07月20日最新研究揭示对抗性攻击如何颠覆机器学习系统

导读 摘要 发表在《科学》杂志上的一篇研究论文警告说,先进技术被用于淘汰机器学习(ML)系统的前景。 该研究详细介绍了如何在医疗保...

摘要 发表在《科学》杂志上的一篇研究论文警告说,先进技术被用于淘汰机器学习(ML)系统的前景。 该研究详细介绍了如何在医疗保健行业

发表在《科学》杂志上的一篇研究论文警告说,先进技术被用于淘汰机器学习(ML)系统的前景。 该研究详细介绍了如何在医疗保健行业中精心设计和部署对抗性攻击-一种旨在颠覆ML系统的技术-在医疗行业中,越来越多的人使用ML和人工智能(AI)技术。 在一个演示中,改变了良性皮肤病变图像中的少量像素,欺骗了诊断AI系统以将其识别为恶性肿瘤。

机器学习和人工智能系统在遭受对抗性攻击时受到损害的可能性不仅限于医疗行业。 例如,本应用来保护企业资源和数据的系统(特别是用于安全性的ML系统)也可能容易受到此类攻击。 [阅读:使用机器学习来聚类恶意网络流] 对用于安全性的ML系统的对抗攻击

最近发表的《暗读》(Dark Reading)文章列出了网络分子可以用来推翻企业安全防御措施的攻击方法。 例如,利用ML的自动渗透测试工具Deep Exploit,攻击者可以使用它在20到30秒钟内对测试组织进行攻击并在其防御中发现安全漏洞。 这样的速度水平是通过ML模型实现的,该模型可以快速提取和分析数据,并因此产生针对下一个攻击阶段进行优化的结果。

网络罪犯也可以进行对抗性攻击的一种方法是,将损坏的数据注入企业独特的计算算法和统计模型中,从而混淆其机器学习模型。

同样,网络罪犯可以通过注入类似于良性文件的恶意软件样本来毒害ML训练集。 结果,训练集将易于产生误报。 举个例子:来自补丁程序家族的PTCH_NOPLE恶意软件,该恶意软件修改了Windows文件 dnsapi.dll 。 某些ML系统由于感染了PTCH_NOPLE的良性 dnsapi.dll 文件而导致较高的误报率。 通过使用受感染的良性便携式可执行文件(PE)或使用恶意代码编译的良性源代码,也可以逃避网络安全产品的ML模型。 通过这样做,恶意软件开发人员可以使恶意软件样本对ML系统看起来是良性的,并防止将其检测为恶意,因为其结构仍主要包含原始良性文件的结构。

[阅读:使用机器学习来检测数量有限的恶意软件爆发] 保护机器学习安全系统的对策 应该保护安全解决方案中使用的ML系统免受对抗性攻击或逃避方法的侵害,以让位于更大的威胁范围和更低的误报率。 一些缓解技术: 为了减少ML系统的攻击面,应在基础结构级别建立防御。 网络罪犯可以使用带有本地ML模型的免费工具进行试用,以修改样本以探究ML系统。 为了使ML系统不易受到探测的影响,可以使用基于云的解决方案(例如具有趋势科技TM XGen™安全性的产品)来检测和阻止恶意探测。 如果尝试进行探测,则该解决方案将向攻击者显示虚假结果,或者它可以终止与攻击者正在使用的帐户相关联的产品或服务。 为了抵抗对抗攻击,应使ML系统更强大。 为此,首先,应在设计阶段的早期就识别出潜在的安全漏洞,并应使每个参数都准确无误。 其次,应通过生成对抗样本来重新训练ML模型。 此过程应在ML系统的整个生命周期中持续实施。 为了减少误报,应使用同时使用ML进行检测和列入白名单的安全解决方案。 趋势科技XGen安全使用趋势科技本地敏感哈希(TLSH)-一种生成哈希值的方法,然后可以对其进行分析以进行相似性分析。

增强ML系统后,可以抵御专家攻击。 但是,尽管强大的机器学习系统的结果是提高了检测率和阻止率,但这并不是解决所有安全问题的唯一技术。 为了创建多层防御,各种安全技术都应与之互操作,这对于抵御各种威胁仍然是最有效的。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢