F5 2024网络安全预测-AI成为威胁的增强器 智能应用 影音
工研院
member

F5 2024网络安全预测-AI成为威胁的增强器

  • 吴冠仪台北

网络信息安全的预测变化莫测,一方面是现代网络在硬件、软件、协议和服务的复杂度增加了攻击面,再则网络攻击者也在不断更新攻击技术与手法,这也增加了保护系统的难度。2023年F5针对网络信息安全预测,有些预测真的准确无误,如API相关的安全漏洞与前一年相比,上升了三分之一以上,超过1.2亿的数据在2023年22次漏洞中被公开,其中大多数是由于身份验证或授权失效引起的。其中27%的漏洞是由安全配置错误引起的,相较2022年增加近4倍。开发人员通常未遵循组织已定义的标准和政策,部署了影子API,这无疑也属于安全配置错误的范畴。

有监于知己知彼更能拟定周全的安全策略的信念下,在F5的安全营运工程师和威胁情报分析师的研究发现:AI提升攻击者的能力上产生极大的影响。表面上来说,这并不像是一个多麽具体前瞻的预测,因为从ChatGPT首次亮相以来,全球的安全专业人员都在预测,使用大型语言模型来撰写钓鱼邮件的危害。事实上,这只是开始,生成式人工智能将以各种方式成为威胁的增强器。F5认为,钓鱼攻击的真正瓶颈不是恶意链接的初始点击,而是追求经济利益,受害者被攻击的次数远比我们可能想像的更多更复杂。

以下的威胁预测,将针对在攻击者可以利用LLMs的超大型深度学习的一些具体方式下,将展开的移动。

预测 1:生成式人工智能将与钓鱼受害者对话

受益于生成式人工智能,攻击者透过社交工程学手段欺骗用户,模拟特定人物或情境,他们让诈骗者与受害者的沟通,听起来更具说服力。F5安全情报中心研究发现,生成式语言模型(LLMs)将接管诈骗者和受害者之间的来回对话,组织犯罪团体把LLMs当作支持中心,直接翻译被攻击者使用的非母语,并以真实的模拟对话回应,无需招募更多的诈骗人。同时,它还会利用公开可得的个人数据,建立极为逼真的诈骗行为,进而提高社交工程攻击的成功率。这将使传统钓鱼网络攻击在规模和效率上都有了巨大的转变,生成式人工智能的使用,也不仅限于制作最初的电子邮件诱饵。

预测 2:使用生成式人工智能进行虚假信息宣传与制作虚假帐户

生成式人工智能工具在不久的将来将显着改变恶意信息操作的方式,包括建立虚假内容、自动生成的虚假信息、有针对性的活动误导以及规避内容审核。F5研究报告观察发现,小规模的影响是在全球当今的国家冲突中,生成式人工智能产出的图像,已经被国家和非国家行为者散播,以获得对其一方的支持。在更大的范围使用上,我们预计在2024年包括美国总统选举和巴黎奥运会等重大世界事件之前,将会有不同的行为者利用这种技术。

同时,AI还可用于创建虚假内容,包括图像和文字,以制作难以区分真实人类内容的虚假帐户。这将扩展到利用AI进行政治虚假信息,并在组织犯罪中用于制造虚假帐户以实施诈骗、凭证填充、虚假信息和市场操纵等攻击策略。在无需成本的情况下,生产力无法想像。

预测 3:网络攻击将使用生成式人工智能的实时输入

网络攻击将采用生成式人工智能的实时输入。这种做法可能会引入新的漏洞,原因在于使用人工智能的实时输入,让攻击者能够根据防御措施做出实时反应。生成式人工智能可能会在攻击中动态地调整程序序列,以应对防御策略,这可能创造出新的攻击矢量或漏洞,使得现有的安全防护措施变得无法立即应对,从而增加了系统的弱点。不久的将来,可以预期LLMs将使攻击链多样化,构成威胁。

预测 4:LLM运作的不透明性泄漏隐忧

生成式人工智能在其运作中的不可预测性和不透明性是很大的潜在问题,在难以准确预测其生成的内容或行为,这使得可能导致出现意外结果,包括未预期的错误或泄漏,也使得安全、隐私以及治理/法遵性团队执行任务时变得更复杂。我们预测将会看到一些由生成式人工智能驱动的工具的惊人失败,例如大规模的个人数据的外泄、未经授权的存取新技术,以及DDoS攻击。这种不透明性增加了管理、监督和调整生成式AI应用的难度与隐忧,特别是在需要确保安全性、隐私和法遵性的情境下。

预测 5:速度凌驾安全导致生成式漏洞

生成式人工智能(GenAI)也造就 「生成式代码助理」应运而生,当大家沉浸于高速、效率的代码生成协助时,如果缺乏适当的防护机制,使得开发人员在短时间内难以进行全面的审查,可能会错过潜在的漏洞或安全问题,导致生成的代码存在风险。此外,大型语言模型只能根据现有建构时间,它可能无法掌握最新的漏洞信息,这可能导致生成的代码中未考虑到最新的安全漏洞,使得生成的代码容易受到已知漏洞的攻击。

在生成式人工智能时代,将速度置于安全性之上的组织,将不可避免地引入新的漏洞。架构复杂性也将使安全防护变得更棘手,系统和安全架构的各种变化,以及对代码安全性缺乏全面考虑和审查。将导致生成的代码存在着各种潜在的安全风险。


商情专辑-AI专栏