究竟什么是AI系统?首席信息安全官越来越依赖人工智能来支持决策——以下是如何看待当今产品中可用的系统及其可以实现的目标。
关于网络安全中的人工智能(AI)的大部分讨论都涉及该技术在增强和自动化攻击者和防御者的传统功能任务方面的应用,比如AI将如何改进漏洞扫描,或者大型语言模型(LLM)将如何改变社会工程。
但是,随着网络安全专业人士承认人工智能决策支持系统在短期和长期内的重要性日益增加,关于“人工智能系统”将如何帮助决策者的讨论总是暗流涌动。
关于人工智能将如何改变决策环境,从接管某些重大决策的责任到默许地塑造首席信息安全官可用的选项菜单,已经有很多文章。这是一个积极的发展,尤其是因为对借助机器学习自动化的流程的过度信任可能会产生许多道德和法律问题。
但值得指出的是,“人工智能系统”的含义经常被掩盖,特别是在这种决策支持背景下。不同的产品究竟在做什么来支持首席信息安全官(或其他利益相关者)?不同的能力组合如何改变态势规划、响应和恢复的动态?
事实是,并非所有的决策支持人工智能都是平等的,不同产品中的不同假设对组织未来的能力有真正的影响。
网络安全人工智能决策支持的背景
是什么为网络安全团队创造了一个有效和高效的决策环境?关键决策者应如何得到与其职责范围相关的人员、团队和其他组织的支持?
为了回答这些问题,我们需要解决如何应用技术来增强特定利益相关者能力的参数。对于理想的动态应该是什么,有许多不同的答案,这既源于组织之间的差异,也源于对组织安全负责任管理的不同观点。
作为网络安全专业人员,我们希望避免上一个数字创新时代的失误,在这个时代,大公司开发了网络架构和产品堆栈,极大地集中了全球经济大多数部门的功能。
由少数相互关联的开发商和技术基础设施公司承保的在线平台时代向我们表明,集中创新往往限制了最终用户的个性化潜力,从而限制了收益。它还限制了适应性,并在少数系统的广泛部署中造成了系统漏洞的可能性。
相比之下,如今,在特定行业层面支持人类决策的人工智能系统的发展通常会跟踪更广泛的努力,使人工智能更加民主敏感,更能反映众多最终用户的独特需求。
结果是一个新兴的决策支持产品市场,根据不同供应商对良好决策环境的不同理论,这些产品实际上可以完成各种各样的任务。
七类人工智能决策支持系统
专业人士可以将对人工智能决策支持系统构成的理解分为七类,即总结、分析、生成、推断偏好、促进、实施和达成共识。让我们仔细看看这些类别。
AI支持系统总结
这是普通消费者最常见、最熟悉的。许多公司利用LLM和辅助方法来消耗大量信息并对其进行总结,形成可用于传统决策过程的输入。
这通常不仅仅是简单的词汇求和(更简洁地表示数据)。相反,摘要工具可以根据决策者的离散偏好产生对他们有用的值。
像“民主微调”这样的项目试图通过将信息描绘成不同的世界性价值观来实现这一点,这些价值观可以被公民用来加强审议。首席信息安全官可能会使用摘要工具将信息海洋转化为与不同基础设施、数据或声誉维度相关的风险统计数据。
分析的AI支持系统
同样的方法也可用于创建分析工具,查询数据集以生成某种推理。在这里,与总结性工具的区别在于,信息不仅仅是以有用的方式表示的,在人类应用自己的认知技能之前,它是可以解释的。例如,首席信息安全官可能会使用这样的工具来询问在特定时间段内,网络流数据可能表明对手的意图。
生成的AI支持系统
同样,尽管不同,但一些LLM是为了生成目的而部署的。这并不意味着人工智能的部署只是为了创建文本或其他多媒体输出,相反,生成式LLM是那些可以创建从前面的数据分析中推断出的语句的LLM。
换句话说,虽然一些人工智能决策支持系统在操作上是总结性的,而另一些则可以在底层数据中定义模式,但另一组完全是为了将推理转化为立场陈述而设计的。对于首席信息安全官来说,这类似于看到部署用于分析的数据,从而就特定的发展制定政策声明。
描述偏好的AI支持系统
除了专注于理解数据以产生推理有用的输出外,还部署了其他LLM来描述系统用户的偏好。这是几项人工智能部署中的第一项,强调对现有审议的处理,而不是加强审议。
从首席信息安全官的角度来看,这可能看起来像是一个能够描述最终用户偏好的系统。当然,训练得越有效,人工智能就越能推断出与安全目标相一致的用户偏好。但总体而言,这个想法更多的是对安全优先级进行建模,以准确解读特定生态系统中正在发挥作用的实践基础。
人工智能支持系统,促进
生成性人工智能增强决策环境的另一种用途是通过直接促进话语和信息查询。人们只需要想想在过去几年里,越来越多的聊天机器人充斥着如此多的供应商的产品目录,就可以看到有多少工具试图明确地提高围绕安全决策的讨论质量。
实施的AI支持系统
具体来说,这些工具的目标是缓和话语过程。一些项目更进一步,授予聊天机器人代理执行利益相关者决策的责任。
找到共识的人工智能支持系统
最后,设计了一些工具来发现各种观点驱动的输入中潜在的共识领域。这与生成式人工智能能力不同,因为其目标是帮助调解不同利益相关者之间的紧张关系。
该方法在方向上也更加个人化,总体思路是LLM(生成性社会选择项目就是一个很好的例子)可以帮助定义共同或排他性的利益领域,并在可能不清楚的情况下指导决策者取得谨慎的结果。
首席信息安全官应该如何看待决策支持人工智能?
为LLM确定这些不同的设计类别是一回事。对于首席信息安全官来说,在选择将人工智能构建到其决策环境中的产品和供应商合作伙伴时,知道要寻找什么是另一回事。
这是一个由两个相互作用的因素复杂化的决定:所讨论的产品和首席信息安全官旨在优化的特定最佳实践理论。
第二个因素可以说比第一个因素更难划清界限。从某种意义上说,首席信息安全官应该清楚地了解他们如何获取有关其责任领域的事实和可操作信息,同时尽量减少循环中冗余或误导性数据的数量。
鉴于网络安全服务于所有经济和社会政治活动,这显然是非常具体的。但一个合理的经验法则是,大型组织在汇总信息的方法上可能比小型组织要求更多。
较小的组织可能能够依靠更纯粹的审议机制来进行规划、响应和其他工作,仅仅是因为信息过载的可能性更有限。这应该为首席信息安全官们提供一个很好的起点,以选择哪种人工智能系统最适合他们的特定情况。
收养还是不收养?这是首席信息安全官的问题
然而,从更基本的意义上思考这些人工智能产品,在行业发展的早期阶段,采用与否的计算仍然相对简单。与人类的同类工具相比,摘要工具工作得相当好。它们有明显的问题,但这些问题很容易看到,因此对此类产品保持警惕的必要性有限。
分析工具同样有能力,但也给首席信息安全官带来了困惑。简单地说,网络安全团队的分析要素应该揭示首席信息安全官可以采取行动的信息,还是应该创建一个限制首席信息安全官可能采取行动的选项菜单?
如果是前者,那么分析人工智能系统已经是首席信息安全官决策环境中一个有价值的补充。如果是后者,那么有理由保持警惕。分析LLM提供的推理是否足够可靠,可以作为做出有影响力决策的基础?陪审团尚未组成。
的确,首席信息安全官可能希望人工智能系统减少选择,使实践更容易,只要使用的输出是值得信赖的。但是,如果目前的发展状况足以让我们对分析产品保持警惕,那么我们对产生、推断偏好或达成共识的产品完全不信任也就足够了。目前,这些产品风格很有前景,但完全不足以降低采用这种未经证实的技术所涉及的风险。
相比之下,首席信息安全官应该认真考虑采用促进信息交流和理解的人工智能系统,甚至考虑那些在执行决策中发挥直接作用的系统。与人们对人工智能独立实现的普遍恐惧相反,这些工具在用户中已经表现出最高的可靠性得分。
诀窍很简单,就是避免将实现链接到前面的人工智能输出,这可能会误导现实世界的情况。同样,聊天机器人和其他有助于信息解释的便利方法通常会使审议更加高效,特别是对于大型组织。结合总结性工具的基本使用,这些人工智能系统为提高首席信息安全官及其团队的效率和问责制提供了强大的方法。