F5 Labs以模型风险排行榜与威胁情报为AI安全基测树立全新标准 智能应用 影音
231
Event
DFORUM

F5 Labs以模型风险排行榜与威胁情报为AI安全基测树立全新标准

  • 吴冠仪台北

F5宣布推出强化版威胁情报资源,协助企业网安主管能够确实地衡量并比较主流AI模型的风险概况。由F5 Labs威胁研究团队发布的 「综合AI安全指数AI Security Index(CASI)与Agentic韧性评分Agentic Resistance Score (ARS)排行榜,结合实时威胁情报与不断演进的AI攻击矢量的专家分析,提供标准化且每月更新的基准数据。

基于F5购并的CalypsoAI领先业界的安全资源,包含全球规模庞大的AI漏洞数据库,该数据库每月独家新增超过10,000笔攻击提示(attack prompts),并整合累积超过一年的攻击数据。透过F5 Labs ,企业与更广泛的网安社群能够运用一套强而有力且一致的方式,在正式导入前,评估、比较与选择AI模型与供应商,检视他们面对主要挑战与实际应对应用安全威胁的能力。

F5资深产品长Kunal Anand表示,将未经验证的AI模型部署至关键基础设施,并不是创新,而是失职。企业需要一种能持续量化韧性的机制。F5 Labs AI Leaderboards正提供这样的标准。这些排名可精准识别模型层的特定弱点,让网安团队掌握必要的情资,并在攻击发生前阻挡。

透过更完整的可视性,F5 Labs AI Leaderboards协助网安团队从整体层面识别与补强各项漏洞,可与F5 Application Delivery and Security Platform搭配运作,提升整体防御能力,涵盖API与数据保护、阻挡DDoS攻击,到透过自动化与可扩展性加强DevSecOps等多元面向的网安防护能力。

AI快速整合至企业营运各个层面,企业导入模型时需要进行更高标准的安全验证。为了协助网安专业人员回答「我的模型有多安全?」这一关键问题,F5 Labs AI Leaderboards建立评估指标,针对攻击者最容易入侵的路径,以及完成简单与复杂攻击所需的最低运算资源进行量化分析。

这次的发布进一步强化全面上市的F5 AI Guardrails与F5 AI Red Team方案。F5 AI Guardrails让企业执行开箱即用及内建与自订的防护机制,确保AI与使用者及数据互动时的安全性。F5 AI Red Team则透过多次自主AI代理进行高强度测试,模拟现代网安分析师团队的运作模式,以及具探测、学习与适应能力的多步骤攻击。

此方法直接作为CASI与ARS排行榜的评估依据,使F5能同时衡量模型的基础安全特性,以及在持续且贴近真实世界威胁情境下的长期抵御能力。除每月更新CASI与ARS最新评分排名外,F5 Labs亦同步发布每月 AI Security Insights研究报告,说明排行榜分数变动背后的关键原因,解析最新 AI 产业动态与研究发展,并深入剖析特定AI攻击案例。

F5 Labs AI Leaderboards仅是F5协助客户与网安社群,以更全面视角理解不断演进的攻击手法与模型防御能力的其中一项实例。透过更全面理解持续演进的攻击手法与模型防御机制,协助因应日益升高的现代网安威胁挑战。透过建立领先AI模型的正式排名制度,F5 Labs亦鼓励网安专业人员间的知识共享,进而产生正向循环,加速应用安全最佳实务的广泛采用。

关键字