趨勢
在數位轉型的浪潮下,網路安全正面臨前所未有的挑戰。隨著網路威脅日益複雜,企業迫切需要更先進的防禦機制,以保護其敏感資料與關鍵基礎設施。在此背景下,人工智慧(AI)與網路安全的融合,被視為一項突破性的發展,有望徹底顛覆傳統的威脅檢測與應對模式。
促使企業積極導入 AI 於網路安全領域的動機,源於多重因素的交織。首先,日趨精密的網路攻擊,已遠遠超出傳統安全工具的應對能力。其次,嚴格的法規遵循要求,迫使企業必須採取更周全的資料保護措施。再者,AI 的導入,有助於實現安全運營的自動化,從而顯著提高效率。因此,全球的 IT 專業人員,都在積極探索能夠適應不斷演變的威脅情勢的智慧化解決方案。
挑戰
當企業開始部署人工智慧(AI)於網路安全硬體時,將面臨一系列複雜的挑戰,需要創新的解決方案和策略性的規劃。首要難題在於如何將 AI 硬體與現有的 IT 基礎設施無縫整合。IT 專業人員必須克服相容性、互通性等問題,確保 AI 系統能與既有的安全架構協同運作。此外,AI 網路安全的資源密集特性,也對計算資源、記憶體分配和儲存容量提出了嚴格要求,以確保系統的最佳效能和可擴展性。
更重要的是,AI 網路安全硬體所處理的資料極為敏感,因此資料隱私和安全至關重要。IT 專業人員必須在利用 AI 進行威脅偵測和防禦的同時,確保敏感資料免受外洩、未經授權的存取和違反合規性等風險。如何在強大的資料保護措施與 AI 驅動的數據洞察之間取得平衡,是一項微妙的挑戰,需要嚴格的加密和存取控制技術。
NEXCOM 提供的解決方案
NEXCOM 致力於協助企業發掘人工智慧(AI)於網路安全領域的無限潛力,提供強大的解決方案,以強化網路防禦、確保數位資產的安全,並在數位時代中建立更堅實的防護網。
NEXCOM 針對網路安全運營中導入 AI 硬體所面臨的諸多挑戰,推出基於 NSA 7160R 的解決方案。此方案採用模組化設計,並與前代產品系列共享相同的外形尺寸,有效降低了整合複雜性,實現與現有 IT 基礎設施的無縫銜接。
此外,NSA 7160R 在設計上充分考量了可擴展性,使企業能夠透過動態分配運算資源、優化記憶體使用及擴展儲存容量,靈活應對不斷變化的營運需求。客戶可根據預算及需求,選擇不同速度的 DDR5 記憶體。靈活的 LAN 模組配置,更支援每系統最高 2.6TB 的乙太網路連線,或透過儲存介面卡擴充至 128GB 的額外儲存空間。
NEXCOM 的解決方案以效能優化為優先,協助企業實現卓越的偵測準確度、快速回應時間及高度可擴展性,提供具體可行的數據洞察及主動式的威脅緩解能力,有效防禦新興的網路威脅。NSA 7160R 支援最新的雙第五代 Intel® Xeon® 可擴充處理器,並向下相容第四代 Intel® Xeon® 可擴充處理器,讓客戶能依需求擴充 CPU 核心數及處理器世代。此平台更整合一系列加速器,包括 Intel® Crypto Acceleration、Intel® QuickAssist Software Acceleration、Intel® Data Streaming Accelerator (DSA)、Intel® Deep Learning Boost (Intel® DL Boost)、Intel® Advanced Matrix Extensions (A 1 MX) 等。[1]加速器配置可能因所選處理器 SKU 而異。
為驗證 NSA 7160R 在 AI 網路安全方面的效能,NEXCOM 進行了一系列測試,比較採用雙第四代 Intel® Xeon® 可擴充處理器 (DUT 1) 與雙第五代 Intel® Xeon® 可擴充處理器 (DUT 2) 的兩種配置。測試中選用的 CPU SKU,在效能及核心數上皆經過嚴格比對,以確保測試的公平性及公正性。其餘配置皆保持最高程度的等效性。詳細測試配置如表 I 所示。
測試中,選用 MalConv 及 BERT-base-cased 兩款開源安全 AI 模型。
表 I
DUT 1 和 DUT 2 測試配置
項目
DUT1
DUT2
第四代 Gen Intel® Xeon®-based
第五代 Gen Intel® Xeon®-based
CPU
2 x Intel® Xeon® Gold 6430 處理器
2 x Intel® Xeon® Gold 6530 處理器
記憶體
252GB16 (8+8) x 32G DDR5 4800 RDIMMs
SSD
512GB1 x 2.5" SSD SATA III
儲存
1.2TB4 x M.2 2280 PCIe4 ×4 4TB NVMe 模組,位於插槽 2
Ubuntu
22.04
核心
v5.19
MalConv 人工智慧模型測試結果
MalConv(惡意軟體卷積神經網路)是一種應用於網路安全領域的深度學習技術,專門用於惡意軟體的偵測。
相較於傳統依賴特徵碼或行為分析的惡意軟體偵測方法,容易被多型或未知變種繞過,MalConv 採用卷積神經網路 (CNN) 直接分析可執行檔的二進制資料。透過對惡意與良性檔案的訓練,MalConv 學會辨識二進制資料中的模式,進而偵測出隱藏在二進制程式碼中的惡意特徵,有效繞過對特徵碼或行為分析的依賴,提升對多型或未知惡意軟體的偵測能力。
為了評估 MalConv 人工智慧模型在實際應用中的效能,我們在兩台受測裝置 (DUT) 上進行了延遲與吞吐量測試。延遲測試旨在衡量 MalConv 分析輸入檔案並給出分類結果(惡意或良性)所需的時間,而吞吐量測試則評估 MalConv 在特定時間內處理多個檔案或資料流的能力。這些測試結果,能提供 MalConv 在人工智慧網路安全應用中的效能、回應速度、可擴展性及效率等方面的關鍵資訊。
不同優化方法的 MalConv 延遲與吞吐量測試結果,詳見表 II。
表 II
MalConv 人工智慧模型延遲和吞吐量測試結果
框架
最佳化方法
模型
平台
延遲
(毫秒)
吞吐量
(樣本/秒)/(FPS)
tensorflow 2.15.0
INC 2.2
Malconv.inc.int8.pb
DUT 1
12.15
82.3
Malconv.inc.int8.pb
DUT 2
11.18
89.47
onnxruntime 1.16.3
INC 2.2
Malconv.inc.int8.onnx
DUT 1
16.55
60.43
Malconv.inc.int8.onnx
DUT 2
14.47
69.1
根據測試結果顯示,第五代 Xeon 伺服器在兩種優化方法和兩個測試項目(延遲和吞吐量)上,均展現出更優異的效能。
在即時威脅偵測中,更低的延遲至關重要,它能確保安全事件獲得更迅速的回應。
在 tensorflow 2.15.0 框架下,第五代 Xeon DUT 的延遲降低了 8%,比第四代 Xeon DUT 減少了 0.97 毫秒。
在 onnxruntime 1.16.3 框架下,第五代 Xeon DUT 的延遲降低了 13%,比第四代 Xeon DUT 減少了 2.08 毫秒。
總結來說,第五代 xeon 伺服器,在延遲上的表現,明顯優於第四代 xeon伺服器。
圖 1. MalConv 人工智慧模型延遲測試結果
更高的吞吐量代表更強大的資料處理能力,這對於高效分析龐大的資料集至關重要。
在 tensorflow 2.15.0 框架下,第五代 Xeon DUT 的吞吐量提升了 9%,每秒可分析的樣本數比第四代 Xeon DUT 多出 7.17 個。
在 onnxruntime 1.16.3 框架下,第五代 Xeon DUT 的吞吐量提升了 14%,每秒可分析的樣本數比第四代 Xeon DUT 多出 8.67 個。
從吞吐量的測試結果來看,第五代 xeon 的效能,明顯高於第四代 xeon。
圖 2. MalConv 人工智慧模型吞吐量測試結果
BERT-base-cased 人工智慧模型測試結果
BERT(來自 Transformer 的雙向編碼器表示)是 Google 開發的一款強大的自然語言處理模型。其中,「base」版本相較於 BERT-large 等大型變體,在規模上較小,運算成本也相對較低。「cased」變體則保留了輸入文本的原始大小寫,完整地保留了文本的大小寫資訊。
在人工智慧網路安全領域,BERT-base-cased 為網路安全應用中的自然語言理解提供了多功能的框架。此模型可用於多種任務,包括威脅情報分析、電子郵件和訊息分類、惡意 URL 偵測、事件回應和威脅搜尋等。
在測試期間,我們分析了每台受測裝置 (DUT) 的靜態、動態和 FP23 BERT-base-cased 模型延遲。同時,我們也測試了 1 個和 4 個活動核心的效能,以評估增加核心數量是否能帶來效能提升。測試結果詳見表 III。
靜態模型延遲是指預先訓練的 Bert-base-cased 模型處理輸入資料並進行預測而無需進一步適應所需的時間。動態模型延遲測量 Bert-base-cased 在運行時根據不斷變化的威脅條件或操作環境變化進行調整或微調所需的時間。FP23 模型延遲表示 Bert-base-cased 配置為保持 23% 的特定誤報率時的延遲。最大限度地減少 FP23 模型延遲使安全團隊能夠更快地回應安全事件,從而減少調查和緩解所需的時間和資源。
表 III
BERT-base-cased 人工智慧模型靜態、動態和 FP23 延遲測試結果
框架
最佳化方法
用於測試的核心
平台
靜態 qat 模型延遲 (毫秒)
動態 qat 模型延遲 (毫秒)
FP32 模型延遲 (毫秒)
Pytorch 2.1.0
IPEX 2.1.100
1 Core
DUT 1
97.5
472.46
862.99
DUT 2
86.28
327.53
726.27
4 Cores
DUT 1
29.84
118.94
261.3
DUT 2
25.08
98.78
214.32
根據測試結果顯示,第五代 Xeon 伺服器在所有三項測試項目(靜態、動態和 FP23 BERT-base-cased 模型延遲)以及兩種 CPU 資源分配測試設置(1 個和 4 個核心)下,均展現出更卓越的效能。
在即時威脅偵測中,更低的靜態模型延遲至關重要,它能加快對安全警報、電子郵件內容或聊天訊息等文字資料的分析速度。過長的延遲可能導致處理延誤,進而影響安全運營的回應能力,阻礙及時的威脅緩解工作。
在 1 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 12%,相較於第四代 Xeon DUT,減少了 11.22 毫秒。
在 4 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 16%,相較於第四代 Xeon DUT,減少了 4.76 毫秒。
總結來說,在靜態模型延遲的表現上,第五代 Xeon 伺服器明顯優於第四代 Xeon 伺服器。
圖 3. BERT-base-cased 人工智慧模型靜態延遲測試結果
較低的動態模型延遲,能使模型更迅速地應對新興的威脅和不斷變化的攻擊模式,進而提升其在網路安全運營中的效能。
在 1 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 31%,相較於第四代 Xeon DUT,減少了 144.93 毫秒。
在 4 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 17%,相較於第四代 Xeon DUT,減少了 20.16 毫秒。
從動態模型延遲的測試結果來看,第五代 Xeon 伺服器在應對變化威脅時,反應明顯比第四代 xeon 伺服器快速。
圖 4. BERT-base-cased 人工智慧模型動態延遲測試結果
實現較低的 FP23 模型延遲,對於在維持高偵測準確性的同時,最大程度地減少誤報至關重要。這確保了安全團隊能將精力集中在真實的威脅上,避免被大量的誤報所困擾。
在 1 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 16%,相較於第四代 Xeon DUT,減少了 136.72 毫秒。
在 4 個核心的測試情境下,第五代 Xeon DUT 的延遲降低了 18%,相較於第四代 Xeon DUT,減少了 46.98 毫秒。
從 FP23 模型延遲的測試結果來看,第五代 Xeon 伺服器在降低誤報和保持高偵測準確度上,明顯比第四代 Xeon 伺服器有更好的表現。
圖 5. BERT-base-cased 人工智慧模型 FP23 延遲測試結果
測試總結
兩台受測設備均成功運行了人工智慧安全軟體,其中搭載第五代 Intel® Xeon® 可擴充處理器的平台,在效能上明顯優於搭載第四代 Intel® Xeon® 可擴充處理器的伺服器。兩平台在安全相關任務的延遲和吞吐量表現上,均展現出高效能,充分證明其已為人工智慧網路安全應用做好準備。
結論
隨著網路安全局勢的不斷演進,IT 人員必須積極應對新興威脅,並充分利用人工智慧技術的最新進展。將 MalConv 和 Bert-base-cased 等人工智慧演算法整合至網路安全運營中,代表著對抗網路威脅的一大突破。
NEXCOM 的 NSA 7160R 伺服器,透過提供強化的威脅偵測能力、快速的回應時間和更高的運營效率,有效解決了企業在保護數位資產方面所面臨的各種挑戰。由於兩測試平台均展現出解決網路安全工作負載的卓越能力,最終的平台選擇,將取決於客戶的特定需求和對效能的考量。
Intel, the Intel logo, and other Intel marks are trademarks of Intel Corporation or its subsidiaries.