趋势
在数字转型的浪潮下,网络安全正面临前所未有的挑战。随着网络威胁日益复杂,企业迫切需要更先进的防御机制,以保护其敏感数据与关键基础设施。在此背景下,人工智能(AI)与网络安全的融合,被视为一项突破性的发展,有望彻底颠覆传统的威胁检测与应对模式。
促使企业积极导入 AI 于网络安全领域的动机,源于多重因素的交织。首先,日趋精密的网络攻击,已远远超出传统安全工具的应对能力。其次,严格的法规遵循要求,迫使企业必须采取更周全的数据保护措施。再者,AI 的导入,有助于实现安全运营的自动化,从而显著提高效率。因此,全球的 IT 专业人员,都在积极探索能够适应不断演变的威胁情势的智慧化解决方案。
挑战
当企业开始部署人工智能(AI)于网络安全硬件时,将面临一系列复杂的挑战,需要创新的解决方案和策略性的规划。首要难题在于如何将 AI 硬件与现有的 IT 基础设施无缝整合。IT 专业人员必须克服兼容性、互操作性等问题,确保 AI 系统能与既有的安全架构协同运作。此外,AI 网络安全的资源密集特性,也对计算资源、内存分配和储存容量提出了严格要求,以确保系统的最佳效能和可扩展性。
更重要的是,AI 网络安全硬件所处理的数据极为敏感,因此数据隐私和安全至关重要。IT 专业人员必须在利用 AI 进行威胁侦测和防御的同时,确保敏感数据免受外泄、未经授权的存取和违反合规性等风险。如何在强大的数据保护措施与 AI 驱动的数据洞察之间取得平衡,是一项微妙的挑战,需要严格的加密和访问控制技术。
NEXCOM 提供的解决方案
NEXCOM 致力于协助企业发掘人工智能(AI)于网络安全领域的无限潜力,提供强大的解决方案,以强化网络防御、确保数字资产的安全,并在数字时代中建立更坚实的防护网。
NEXCOM 针对网络安全运营中导入 AI 硬件所面临的诸多挑战,推出基于 NSA 7160R 的解决方案。此方案采用模块化设计,并与前代产品系列共享相同的外形尺寸,有效降低了整合复杂性,实现与现有 IT 基础设施的无缝衔接。
此外,NSA 7160R 在设计上充分考虑了可扩展性,使企业能够透过动态分配运算资源、优化内存使用及扩展储存容量,灵活应对不断变化的营运需求。客户可根据预算及需求,选择不同速度的 DDR5 内存。灵活的 LAN 模块配置,更支持每系统最高 2.6TB 的以太网络联机,或透过储存适配卡扩充至 128GB 的额外储存空间。
NEXCOM 的解决方案以效能优化为优先,协助企业实现卓越的侦测准确度、快速响应时间及高度可扩展性,提供具体可行的数据洞察及主动式的威胁缓解能力,有效防御新兴的网络威胁。NSA 7160R 支持最新的双第五代 Intel® Xeon® 可扩充处理器,并向下兼容第四代 Intel® Xeon® 可扩充处理器,让客户能依需求扩充 CPU 核心数及处理器世代。此平台更整合一系列加速器,包括 Intel® Crypto Acceleration、Intel® QuickAssist Software Acceleration、Intel® Data Streaming Accelerator (DSA)、Intel® Deep Learning Boost (Intel® DL Boost)、Intel® Advanced Matrix Extensions (A 1 MX) 等。[1]加速器配置可能因所选处理器 SKU 而异。
为验证 NSA 7160R 在 AI 网络安全方面的效能,NEXCOM 进行了一系列测试,比较采用双第四代 Intel® Xeon® 可扩充处理器 (DUT 1) 与双第五代 Intel® Xeon® 可扩充处理器 (DUT 2) 的两种配置。测试中选用的 CPU SKU,在效能及核心数上皆经过严格比对,以确保测试的公平性及公正性。其余配置皆保持最高程度的等效性。详细测试配置如表 I 所示。
测试中,选用 MalConv 及 BERT-base-cased 两款开源安全 AI 模型。
表 I
DUT 1 和 DUT 2 测试配置
项目
DUT1
DUT2
第四代 Gen Intel® Xeon®-based
第五代 Gen Intel® Xeon®-based
内存
2 x Intel® Xeon® Gold 6430 处理器
2 x Intel® Xeon® Gold 6530 处理器
Memory
252GB16 (8+8) x 32G DDR5 4800 RDIMMs
SSD
512GB1 x 2.5" SSD SATA III
储存
1.2TB4 x M.2 2280 PCIe4 ×4 4TB NVMe modules in slot 2
Ubuntu
22.04
核心
v5.19
MalConv 人工智能模型测试结果
MalConv(恶意软件卷积神经网络)是一种应用于网络安全领域的深度学习技术,专门用于恶意软件的侦测。
相较于传统依赖特征码或行为分析的恶意软件侦测方法,容易被多型或未知变种绕过,MalConv 采用卷积神经网络 (CNN) 直接分析可执行文件的二进制数据。透过对恶意与良性档案的训练,MalConv 学会辨识二进制数据中的模式,进而侦测出隐藏在二进制程序代码中的恶意特征,有效绕过对特征码或行为分析的依赖,提升对多型或未知恶意软件的侦测能力。
为了评估 MalConv 人工智能模型在实际应用中的效能,我们在两台受测装置 (DUT) 上进行了延迟与吞吐量测试。延迟测试旨在衡量 MalConv 分析输入档案并给出分类结果(恶意或良性)所需的时间,而吞吐量测试则评估 MalConv 在特定时间内处理多个档案或数据流的能力。这些测试结果,能提供 MalConv 在人工智能网络安全应用中的效能、响应速度、可扩展性及效率等方面的关键信息。
不同优化方法的 MalConv 延迟与吞吐量测试结果,详见表 II。
表 II
MalConv 人工智能模型延迟和吞吐量测试结果
框架
优化方法
模型
平台
延迟(毫秒)
吞吐量(样本/秒)/(FPS)
tensorflow 2.15.0
INC 2.2
Malconv.inc.int8.pb
DUT 1
12.15
82.3
Malconv.inc.int8.pb
DUT 2
11.18
89.47
onnxruntime 1.16.3
INC 2.2
Malconv.inc.int8.onnx
DUT 1
16.55
60.43
Malconv.inc.int8.onnx
DUT 2
14.47
69.1
根据测试结果显示,第五代 Xeon 服务器在两种优化方法和两个测试项目(延迟和吞吐量)上,均展现出更优异的效能。
在实时威胁侦测中,更低的延迟至关重要,它能确保安全事件获得更迅速的响应。
在 tensorflow 2.15.0 框架下,第五代 Xeon DUT 的延迟降低了 8%,比第四代 Xeon DUT 减少了 0.97 毫秒。
在 onnxruntime 1.16.3 框架下,第五代 Xeon DUT 的延迟降低了 13%,比第四代 Xeon DUT 减少了 2.08 毫秒。
总结来说,第五代 xeon 服务器,在延迟上的表现,明显优于第四代 xeon服务器。
图 1. MalConv 人工智能模型延迟测试结果
更高的吞吐量代表更强大的数据处理能力,这对于高效分析庞大的数据集至关重要。
在 tensorflow 2.15.0 框架下,第五代 Xeon DUT 的吞吐量提升了 9%,每秒可分析的样本数比第四代 Xeon DUT 多出 7.17 个。
在 onnxruntime 1.16.3 框架下,第五代 Xeon DUT 的吞吐量提升了 14%,每秒可分析的样本数比第四代 Xeon DUT 多出 8.67 个。
从吞吐量的测试结果来看,第五代 xeon 的效能,明显高于第四代 xeon。
图 2. MalConv 人工智能模型吞吐量测试结果
BERT-base-cased 人工智能模型测试结果
BERT(来自 Transformer 的双向编码器表示)是 Google 开发的一款强大的自然语言处理模型。其中,「base」版本相较于 BERT-large 等大型变体,在规模上较小,运算成本也相对较低。「cased」变体则保留了输入文本的原始大小写,完整地保留了文本的大小写信息。
在人工智能网络安全领域,BERT-base-cased 为网络安全应用中的自然语言理解提供了多功能的框架。此模型可用于多种任务,包括威胁情报分析、电子邮件和讯息分类、恶意 URL 侦测、事件响应和威胁搜寻等。
在测试期间,我们分析了每台受测装置 (DUT) 的静态、动态和 FP23 BERT-base-cased 模型延迟。同时,我们也测试了 1 个和 4 个活动核心的效能,以评估增加核心数量是否能带来效能提升。测试结果详见表 III。
静态模型延迟是指预先训练的 Bert-base-cased 模型处理输入数据并进行预测而无需进一步适应所需的时间。动态模型延迟测量 Bert-base-cased 在运行时根据不断变化的威胁条件或操作环境变化进行调整或微调所需的时间。FP23 模型延迟表示 Bert-base-cased 配置为保持 23% 的特定误报率时的延迟。最大限度地减少 FP23 模型延迟使安全团队能够更快地响应安全事件,从而减少调查和缓解所需的时间和资源。
表 III
BERT-base-cased 人工智能模型静态、动态和 FP23 延迟测试结果
框架
优化方法
用于测试的核心
平台
静态 qat 模型延迟(毫秒)
动态 qat 模型延迟
(毫秒)
FP32 模型延迟
(毫秒)
Pytorch 2.1.0
IPEX 2.1.100
1 Core
DUT 1
97.5
472.46
862.99
DUT 2
86.28
327.53
726.27
4 Cores
DUT 1
29.84
118.94
261.3
DUT 2
25.08
98.78
214.32
根据测试结果显示,第五代 Xeon 服务器在所有三项测试项目(静态、动态和 FP23 BERT-base-cased 模型延迟)以及两种 CPU 资源分配测试设置(1 个和 4 个核心)下,均展现出更卓越的效能。
在实时威胁侦测中,更低的静态模型延迟至关重要,它能加快对安全警报、电子邮件内容或聊天讯息等文字数据的分析速度。过长的延迟可能导致处理延误,进而影响安全运营的响应能力,阻碍及时的威胁缓解工作。
在 1 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 12%,相较于第四代 Xeon DUT,减少了 11.22 毫秒。
在 4 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 16%,相较于第四代 Xeon DUT,减少了 4.76 毫秒。
总结来说,在静态模型延迟的表现上,第五代 Xeon 服务器明显优于第四代 Xeon 服务器。
图 3. BERT-base-cased 人工智能模型静态延迟测试结果
较低的动态模型延迟,能使模型更迅速地应对新兴的威胁和不断变化的攻击模式,进而提升其在网络安全运营中的效能。
在 1 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 31%,相较于第四代 Xeon DUT,减少了 144.93 毫秒。
在 4 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 17%,相较于第四代 Xeon DUT,减少了 20.16 毫秒
从动态模型延迟的测试结果来看,第五代 Xeon 服务器在应对变化威胁时,反应明显比第四代 xeon 服务器快速。
图 4. BERT-base-cased 人工智能模型动态延迟测试结果
实现较低的 FP23 模型延迟,对于在维持高侦测准确性的同时,最大程度地减少误报至关重要。这确保了安全团队能将精力集中在真实的威胁上,避免被大量的误报所困扰。
在 1 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 16%,相较于第四代 Xeon DUT,减少了 136.72 毫秒。
在 4 个核心的测试情境下,第五代 Xeon DUT 的延迟降低了 18%,相较于第四代 Xeon DUT,减少了 46.98 毫秒。
从 FP23 模型延迟的测试结果来看,第五代 Xeon 服务器在降低误报和保持高侦测准确度上,明显比第四代 Xeon 服务器有更好的表现。
图 5. BERT-base-cased 人工智能模型 FP23 延迟测试结果
测试总结
两台受测设备均成功运行了人工智能安全软件,其中搭载第五代 Intel® Xeon® 可扩充处理器的平台,在效能上明显优于搭载第四代 Intel® Xeon® 可扩充处理器的服务器。两平台在安全相关任务的延迟和吞吐量表现上,均展现出高效能,充分证明其已为人工智能网络安全应用做好准备。
结论
随着网络安全局势的不断演进,IT 人员必须积极应对新兴威胁,并充分利用人工智能技术的最新进展。将 MalConv 和 Bert-base-cased 等人工智能算法整合至网络安全运营中,代表着对抗网络威胁的一大突破。
NEXCOM 的 NSA 7160R 服务器,透过提供强化的威胁侦测能力、快速的响应时间和更高的运营效率,有效解决了企业在保护数字资产方面所面临的各种挑战。由于两测试平台均展现出解决网络安全工作负载的卓越能力,最终的平台选择,将取决于客户的特定需求和对效能的考虑。
Intel, the Intel logo, and other Intel marks are trademarks of Intel Corporation or its subsidiaries.