人工智能正在改变许多行业,但没有哪个行业像网络安全那样引人注目。随着网络犯罪的激增和技能差距的扩大,越来越明显的是,人工智能是安全的未来,但仍然存在一些挑战。最近人们越来越关注的一个问题是对人工智能可解释性的需求。
随着人工智能工具的出现,人们对人工智能可解释性的担忧日益增加,在网络安全领域,它和其他应用一样重要吗?让我们来仔细看看。
什么是人工智能的可解释性?
要了解可解释性如何影响网络安全,我们必须首先了解为什么它在任何情况下都很重要。可解释性是许多行业采用人工智能的最大障碍,原因主要有一个,就是信任。
如今,许多人工智能模型都是黑匣子,这意味着我们将无法看到它们如何做出决策。相比之下,可解释的人工智能(XAI)为模型如何处理和解释数据提供了完全的透明度。当使用XAI模型时,可以看到它的输出以及导致其得出这些结论的一系列推理,从而建立对此决策的更多信任。
从网络安全的角度来看,可以考虑一个自动网络监控系统。想象一下,这个模型将登录尝试标记为潜在的泄露。一个传统的黑匣子模型会声明它认为该活动是可疑的,但可能不会说明原因。XAI允许进一步调查,以查看哪些具体操作使人工智能将事件归类为违规,从而加快响应时间并潜在地降低成本。
为什么可解释性对于网络安全很重要?
在某些用例中,XAI的吸引力是显而易见的。例如,人力资源部门必须能够解释人工智能决策,以确保它们不存在偏见。然而,有些人可能会认为,只要模型准确,模型如何得出安全决策并不重要。以下是为什么情况不一定如此的几个原因。
1、提高AI准确率
网络安全人工智能可解释性的最重要原因是它提高了模型的准确性。人工智能提供了对潜在威胁的快速响应,但安全专业人员必须能够相信这些响应是有用的。不明白为什么模型会以某种方式对事件进行分类会阻碍这种信任。
通过降低误报的风险,XAI提高了安全AI的准确性。安全团队可以准确地看到为什么一个模型将某些东西标记为威胁。如果是错误的,他们可以看到原因,并根据需要进行调整,以防止类似的错误。
研究表明,安全XAI可以实现95%以上的准确率,同时使错误分类背后的原因更加明显。这使我们可以创建更可靠的分类系统,确保安全警报尽可能准确。
2、更明智的决策
可解释性提供了更多洞察力,这对于确定网络安全的后续步骤至关重要。解决威胁的最佳方法因多种具体情况因素而异。我们可以了解更多关于人工智能模型,为何以某种方式对威胁进行分类的信息,获取关键的背景信息。
黑盒人工智能除了分类之外可能无法提供更多功能。相比之下,XAI可以让我们了解其决策过程,揭示威胁的来龙去脉及其表现方式,从而实现根本原因分析。然后可以更有效地解决它。
3、持续改进
可解释的人工智能在网络安全中也很重要,因为它可以实现持续改进,网络安全是动态的。犯罪分子总是在寻找绕过防御的新方法,因此安全趋势必须做出相应的调整。如果不确定安全人工智能如何检测威胁,这可能会很困难。
仅仅适应已知的威胁也是不够的。在过去十年中,大约40%的零日漏洞攻击发生在2021年。针对未知漏洞的攻击变得越来越普遍,因此必须要能够在黑客之前找到并解决系统中的弱点。
可解释性可以让我们准确地做到这一点。因为可以看到XAI如何做出决策,所以可以找到可能导致错误的差距或问题,并解决它们以增强安全性。同样,可以查看导致各种操作的趋势,以确定应该考虑的新威胁。
4、监管合规性
随着网络安全法规的不断完善,安全人工智能中可解释性的重要性也将随之增长。像GDPR或HIPAA这样的隐私法都有广泛的透明度要求。如果企业属于这个管辖范围,黑盒人工智能很快就会成为法律责任。
安全人工智能可能可以访问用户数据来识别可疑活动。这意味着我们必须能够证明模型,如何使用该信息来遵守隐私法规。XAI提供了这种透明度,但黑盒AI却没有。目前,此类法规仅适用于某些行业和地区,但这种情况可能很快就会改变。
5、建立信任
如果不出意外的话,网络安全人工智能应该可以用来建立信任。许多企业难以获得消费者的信任,许多人怀疑人工智能的可信度。XAI有助于向客户保证,安全AI是安全和合乎道德的,因为可以准确地确定它是如何做出决策的。
对信任的需求超出了消费者的范围。安全团队必须获得管理层和企业利益相关者的支持,才能部署人工智能。可解释性让他们能够展示他们的人工智能解决方案,如何以及为何有效、道德和安全,从而提高获得批准的机会。
获得批准有助于更快地部署人工智能项目并增加预算。因此,与没有可解释性的情况相比,安全专业人员可以更大程度地利用这项技术。
XAI在网络安全方面面临的挑战
可解释性对于网络安全人工智能至关重要,随着时间的推移,它只会变得更加重要。然而,构建和部署XAI带来了一些独特的挑战。组织必须认识到这些,以实现有效的XAI部署。
成本是可解释的人工智能最重要的障碍之一。由于其标记数据的要求,监督学习在某些情况下可能会很昂贵。这些费用可能会限制,一些企业证明安全人工智能项目合理性的能力。
同样,一些机器学习(ML)方法根本无法很好地转化为对人类有意义的解释。强化学习是一种新兴的机器学习方法,超过22%的采用人工智能的企业开始使用它。由于强化学习通常会持续很长一段时间,模型可以自由地做出许多相互关联的决策,因此很难收集模型所做的每个决策,并将其转化为人类可以理解的输出。
最后,XAI模型的计算强度很大。并不是每个企业都有必要的硬件来支持这些更复杂的解决方案,并且扩展可能会带来额外的成本问题。这种复杂性也使得构建和训练这些模型变得更加困难。
在安全领域有效使用XAI的步骤
安全团队应谨慎对待XAI,考虑这些挑战以及网络安全AI可解释性的重要性。一种解决方案是使用第二个人工智能模型来解释第一个模型。ChatGPT等工具可以用人类语言解释代码,提供一种方法来告诉用户模型为何做出某些选择。
如果安全团队从一开始就使用比透明模型慢的人工智能工具,那么这种方法会很有帮助。这些替代方案需要更多的资源和开发时间,但会产生更好的结果。许多企业现在提供现成的XAI工具来简化开发。使用对抗网络来理解人工智能的训练过程也有帮助。
无论哪种情况,安全团队都必须与人工智能专家密切合作,以确保他们了解自己的模型。开发应该是一个跨部门、更具协作性的过程,以确保每个需要的人都能理解人工智能决策。企业必须将人工智能素养培训作为实现这一转变的优先事项。
网络安全人工智能必须是可解释的
可解释的人工智能提供透明度、更高的准确性以及持续改进的潜力,所有这些对于网络安全都至关重要。随着监管压力和对人工智能的信任变得更加重要,可解释性将变得更加重要。
XAI可能会增加开发挑战,但其好处是值得的。安全团队开始与人工智能专家合作,从头开始构建可解释的模型,可以释放人工智能的全部潜力。