AI技术的发展为网络安全带来新机遇的同时,黑客也在逐渐利用AI漏洞建立对抗样本以躲避攻击,双方在各自领域的更多尝试也将是AI技术发展的一场新博弈。那么,在应用中,如何利用AI检测技术与恶意软件展开对抗?
腾讯安全技术专家王佳斌为您带来分享解读。
AI检测的背景
上世纪50、60年代,早期的人工智能技术已出现,70年代到80年代,机器学习技术已被大家认识和应用。到2010年后,深度学习技术已被广泛应用在各大领域,安全领域也是其中之一。
传统的检测方式是人工定制的安全检测方案,通过输入的数据进行研判,进而得到检测结果。新的AI检测方式是通过输入数据和已知结果训练模型,再由模型去做检测。
攻击方视角
- 从攻击者的视角,如何运用AI安全检测?
通过AI的方式选择攻击目标,钓鱼是攻击者广泛使用的攻击方式。新的研究显示通过AI技术对社交网络信息的训练,可以找到一些容易被攻击的对象。
早期的钓鱼方式包括短信、诈骗电话等,发展至今攻击方升级为通过AI技术采集相关信息对社交网络信息进行训练。
数据调查显示,广撒网式的钓鱼方式成功率仅为15%,新的训练技术成功率可提升30%及以上。
- 从攻击方的视角,如何对抗安全防护?
在恶意应用和恶意软件检测的过程中,黑产分发病毒除了会分发大量的恶意应用外,也会掺杂一些正常的应用。如果用这些数据去训练模型,模型研判会有很高的误判率,由此便会出现训练数据的污染。
- 从攻击方的视角,如何对研判数据进行修改和干扰?
对研判数据进行修改和干扰主要表现为在数据传入时绕过AI检测对数据做出变化。之中涉及到几种模型测试类别,即可直接拿到模型的白盒测试和不能直接拿到模型的黑盒测试,其中黑盒测试更接近于安全领域对抗过程。
目前已有的遗传编程算法对于恶意攻击首先可根据结构化字段做随机化操作得到一个子群,经过分类器研判并做迭代测试找到变种子集再重新训练。通过遗传演算重新找到变种子群,再用分类器研判。这种递归方式对于找到逃过AI检测样本有较大帮助。
防御方视角
AI已广泛应用于安全检测技术中,从防御者的视角来看,传统经典的检测方式还需要持续检测和优化。AI是对传统检测方式的补充,但不是一种替代,对此,王佳斌提出了几点建议:
第一, 传统的检测方式和AI的检测方式可以形成叠加的效应,防止被单点突破。
第二,传统检测方式提供的检测结果可为AI模型训练提供不错的数据源。对于模型自身的鲁棒性,要引入一些提升鲁棒性的方法,包括主动将对抗样本引入到训练集里形成对抗性训练,防御性的增流等。
第三,对于传统经典的检测方案要持续检测,训练数据要进行很好的清洗和提纯,足够有表征意义和纯净的训练数据才能将AI训练的更好。在此基础上还要保证模型的安全性和加密性,模型本身需要建立多种叠加效果,引入专家系统并做兜底策略。
如今,黑客正在越来越多的利用AI漏洞构建“对抗样本”进行躲避攻击,除了上述的防御方式,更多的AI攻击应对方法还在探索之中。对于AI在恶意软件检测中的应用和对抗解读,开发者觉得有哪些值得借鉴和可以改进的地方呢?欢迎留言说出您的看法~
本文首发于安卓绿色联盟公众号。
原文地址:https://www.cnblogs.com/androidga/p/10432367.html