网络犯罪分子越来越多地利用人工智能技术来提高其攻击的复杂性和效率。
人工智能正在彻底改变技术行业,网络犯罪生态系统也是如此,
因为网络犯罪分子越来越多地利用生成性人工智能来改进他们的战术、技术和程序,并提供更快、更强、更狡猾的攻击。
但是,与合法使用新兴人工智能工具一样,滥用生成性人工智能用于邪恶目的与其说是关于新颖和看不见的,
不如说是关于生产力和效率,降低进入门槛,并卸载可自动化的任务,以支持所涉人员的高阶思维。
人工智能安全测试供应商Mindgard的首席执行官兼首席技术官、英国兰开斯特大学教授Peter Garraghan博士告诉CSO:
“人工智能不一定会导致新类型的网络犯罪,而是能够加速或扩大我们熟悉的现有犯罪,并引入新的威胁载体。”。
Garraghan继续说道:“如果一个合法用户可以使用人工智能来自动化他们的任务,捕捉复杂的模式,降低技术进入门槛,
降低成本,并生成新的内容,为什么犯罪分子不会这样做呢?”
以下是网络犯罪分子利用人工智能开发当今企业系统的各种方式。
将网络钓鱼提升到一个新的水平
Gen AI能够创建极具说服力的钓鱼电子邮件,大大增加了潜在标记向诈骗网站提供过度敏感信息或下载恶意软件的可能性。
人工智能的使用使网络犯罪分子能够快速生成更复杂、看起来更合法的电子邮件,
而不是发送一封通常具有语法和格式不一致和错误的相当通用和不令人信服的电子邮件,并有可能针对收件者进行更大的个性化。
Gen AI工具帮助犯罪分子汇集不同的数据来源,以丰富他们的活动——无论是群体社交分析,还是从社交媒体收集的有针对性的信息。
Mindgard的Garraghan解释说:“人工智能可用于快速了解哪些类型的电子邮件被拒绝或打开,进而修改其方法以提高钓鱼成功率。”。
随着网络钓鱼攻击以实物形式扩展,人工智能生成的音频和视频深度伪造可以用作更复杂的社会工程攻击的一部分。
在迄今为止最引人注目的例子中,设计和工程公司奥雅纳的一名财务人员在参加一次视频会议后,
被诱骗授权进行一笔2亿港元(2560万美元)的欺诈性交易,在此期间,欺诈者使用deepfake技术冒充其英国首席财务官。
促进恶意软件开发
人工智能也可用于生成更复杂或至少劳动强度更低的恶意软件。
例如,网络犯罪分子正在使用gen AI创建恶意HTML文档。XWorm攻击由HTML走私发起,其中包含下载和运行恶意软件的恶意代码,具有通过人工智能开发的特征。
根据最新版的HP Wolf Security威胁洞察报告,“加载器的详细逐行描述表明它是使用生成式人工智能制作的”。
此外,HP Wolf Security补充道,“在提示LLM生成提供文件下载的HTML页面后,提供XWorm的HTML网页的设计在视觉上几乎与ChatGPT 4o的输出相同。”。
据惠普企业安全部门称,早期的AsyncRAT活动也采用了类似的技术。
根据Check Point Research的数据,在其他地方,勒索软件集团FunkSec——一家与阿尔及利亚有联系的勒索软件即服务(RaaS)运营商,利用双重勒索策略——已经开始利用人工智能技术。
Check Point的研究人员在一篇博客文章中写道:“FunkSec运营商似乎使用人工智能辅助的恶意软件开发,即使是没有经验的参与者也可以快速制作和改进高级工具。”。
加速漏洞搜寻和利用
通过使用人工智能技术,可以简化分析系统漏洞和开发漏洞的传统困难任务。
Mingard的Garraghan说:“与其让黑帽黑客花时间探测和侦察系统周边,不如让人工智能代理自动完成这项任务。”。
根据威胁情报公司ReliaQuest最近的一项研究,人工智能一代可能将漏洞被发现到被攻击者利用的时间从47天缩短到18天,缩短了62%。
ReliaQuest写道:“这种急剧下降强烈表明,一项重大的技术进步——可能是GenAI——正在使威胁行为者能够以前所未有的速度利用漏洞。”。
对手正在利用gen AI和笔测试工具为网络扫描、权限升级和负载定制等任务编写脚本。人工智能也可能被网络犯罪分子用来分析扫描结果并提出最佳漏洞利用建议,从而有效地使他们能够更快地识别受害者系统中的缺陷。
ReliaQuest总结道:“这些进步加速了杀伤链的许多阶段,特别是初始访问。”。
CSO的Lucian Constantin深入探讨了生成性人工智能工具如何通过使针对笔测试员和攻击者的漏洞搜索民主化来改变网络威胁格局。
替代平台带来的威胁不断升级
网络犯罪分子正迅速从ChatGPT转向中国的新AI模型——DeepSeek和Qwen——以生成恶意内容。
Check Point Research表示:“威胁行为者正在公开分享技术,以越狱这些模型,绕过安全控制,并在最小的限制下创建恶意软件、信息窃取者和垃圾邮件活动。
”有些人甚至在讨论如何使用这些人工智能工具来逃避银行反欺诈保护——这是网络威胁的显著升级。”
Check Point在一篇技术博客文章中警告称:“已经发现了关于使用DeepSeek绕过银行系统反欺诈保护的多次讨论和共享技术,这表明存在重大金融盗窃的可能性。”。
总部位于中国的人工智能公司DeepSeek最近的加入在整个行业引起了冲击波,与西方同行相比,该公司在防止滥用方面受到的保护较弱。
Check Point Research解释说:“虽然ChatGPT在过去两年中在反滥用条款上投入了大量资金,但这些新模型似乎对滥用几乎没有抵抗力,从而吸引了不同层次的攻击者的兴趣,尤其是低技能攻击者——即那些在不深入了解底层技术的情况下利用现有脚本或工具的人。”
网络犯罪分子也开始开发自己的大型语言模型(LLM),如WormGPT、FraudGPT、DarkBERT等,这些模型没有限制犯罪分子滥用主流人工智能平台的护栏。
这些平台通常用于钓鱼和恶意软件生成等应用程序。
此外,主流LLM也可以针对特定用途进行定制。
安全研究员Chris Kubecka最近与CSO分享了她的定制版本ChatGPT(称为Zero Day GPT)如何帮助她在几个月内识别出20多个零天。
通过绕过身份验证进行入侵
Gen AI工具也可能被滥用,以绕过验证码或生物特征认证等安全防御。
网络安全供应商Dispersive表示:“人工智能可以击败验证码系统,并分析语音生物特征以破坏身份验证。”。“这种能力突显了组织采用更先进、分层安全措施的必要性。”
反制措施
总的来说,滥用GenAI工具使技能较低的网络罪犯更容易过上不诚实的生活。防范攻击向量挑战安全专业人员比攻击者更有效地利用人工智能的力量。
Mindgard的Garraghan说:“非法滥用人工智能技术正在推动测试、检测和应对这些威胁的必要性,其中人工智能也被用来打击网络犯罪活动。”。
Dispersive技术营销副总裁Lawrence Pingree在一篇博客文章中概述了安全专业人员可以采取的先发制人的网络防御措施,以赢得他所说的攻击者和防御者之间的“AI ARMS(自动化、侦察和错误信息)竞赛”。
Pingree警告说:“仅仅依靠传统的检测和响应机制已经不够了。”。
除了员工教育和意识计划外,企业还应该使用人工智能来实时检测和消除基于人工智能的生成性威胁。对IP地址、系统配置等的随机化和抢先更改可能会成为攻击的障碍。
利用人工智能模拟潜在的攻击场景,并通过威胁模拟和预测情报预测对手的行为,还可以提高对潜在攻击的抵御能力。