安全 – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Thu, 26 Oct 2023 06:54:27 +0000
zh-CN
hourly
1
196178272 -
AI 紅隊:機器學習安全培訓
http://www.open-lab.net/zh-cn/blog/ai-red-team-machine-learning-security-training/
Thu, 19 Oct 2023 06:51:38 +0000
http://www.open-lab.net/zh-cn/blog/?p=8068
Continued]]>
在 Black Hat USA 2023 上, NVIDIA 舉辦了為期兩天的培訓課程,為安全專業人員提供了一個現實的環境和方法,以探索機器學習(ML)在當今環境中帶來的獨特風險。 在這篇文章中, NVIDIA AI 紅隊分享了培訓期間的內容,以及繼續學習 ML 安全的其他機會。 今年是人工智能的輝煌一年。許多安全團隊被要求評估和保護人工智能產品,而沒有適當評估其潛在漏洞的技能和知識。 通過在世界領先的安全會議之一上提供此培訓,我們能夠在許多不同的垂直行業分享 NVIDIA AI 紅隊的經驗和知識。我們幫助確保這些組織能夠開始安全地使用和開發人工智能解決方案。我們也來自那個社區,所以這是一個舒適的教學空間。 為期兩天的培訓包括 20 多本 Jupyter 筆記本和 200 張幻燈片,分為以下模塊: 太多了。與會者帶著幻燈片和筆記本回家,
Source
]]>
8068
-
分析機器學習研究代碼的安全性
http://www.open-lab.net/zh-cn/blog/analyzing-the-security-of-machine-learning-research-code/
Wed, 04 Oct 2023 04:27:13 +0000
http://www.open-lab.net/zh-cn/blog/?p=7953
Continued]]>
我們的 NVIDIA AI 紅隊 專注于在數據、科學和 AI 生態系統中擴展安全開發實踐。我們參與 開源安全倡議,發布 工具,并出席了 行業會議,主辦 教育競賽 并提供 創新培訓。 最近發布的 Meta Kaggle for Code 數據集為大規模分析機器學習 (ML) 研究和實驗競賽代碼安全性提供了絕佳的機會。我們的目標是利用這些數據來解答以下問題: 我們的分析表明,盡管有關于安全風險的公開文檔以及相對順暢的高級安全工具,ML 研究人員仍繼續使用不安全的編碼實踐。我們的理論認為,研究人員優先考慮快速實驗,并且不會將自己或其項目視為目標,因為他們通常不運行生產服務。 此外,Kaggle 環境可能會因為與研究人員的“真實基礎架構”隔離而導致安全漏洞更加嚴重。但是,研究人員必須承認自己在軟件供應鏈中的地位,并應意識到不安全的編碼操作對其研究和系統帶來的風險。
Source
]]>
7953
-
用于矛式網絡釣魚檢測的生成式人工智能和加速計算
http://www.open-lab.net/zh-cn/blog/generative-ai-and-accelerated-computing-for-spear-phishing-detection/
Tue, 12 Sep 2023 10:05:56 +0000
http://www.open-lab.net/zh-cn/blog/?p=7864
Continued]]>
矛式網絡釣魚是最大、成本最高的網絡威脅形式。據估計,2021 年有 30 萬受害者,僅在美國就損失了 4400 萬美元,根據 FBI 網絡犯罪報告。同時,IBM 安全數據泄露成本報告也對此進行了說明。 矛式網絡釣魚電子郵件與受害者可能收到的善意電子郵件無法區分。這也是為什么魚叉式網絡釣魚電子郵件的傳統分類如此困難的原因。騙局和合法電子郵件之間的內容差異可能很小。通常,兩者之間唯一的區別是發件人的意圖:發票是合法的,還是騙局? 這篇文章詳細介紹了一種雙重方法,通過使用增強意圖信號來改進魚叉式網絡釣魚檢測。這種方法利用了 NVIDIA Morpheus 進行數據處理和推理。 第一步包括使用生成式人工智能創建大量多樣的電子郵件語料庫,其中包含與魚叉式網絡釣魚和詐騙相關的各種意圖。隨著新威脅的出現,NVIDIA Morpheus 團隊使用 NVIDIA NeMo…
Source
]]>
7864
-
保護 LLM 系統不受即時注入的影響
http://www.open-lab.net/zh-cn/blog/securing-llm-systems-against-prompt-injection/
Thu, 03 Aug 2023 05:15:49 +0000
http://www.open-lab.net/zh-cn/blog/?p=7555
Continued]]>
即時注入是一種新的攻擊技術,專門針對 大語言模型 (LLMs),使得攻擊者能夠操縱 LLM 的輸出。由于 LLM 越來越多地配備了“插件”,通過訪問最新信息、執行復雜的計算以及通過其提供的 API 調用外部服務來更好地響應用戶請求,這種攻擊變得更加危險。即時注入攻擊不僅欺騙 LLM ,而且可以利用其對插件的使用來實現其目標。 這篇文章解釋了即時注射,并展示了 NVIDIA AI 紅隊 已識別的漏洞,其中可以使用即時注入來利用 LangChain 庫。這為實現 LLM 插件提供了一個框架。 使用針對這些特定 LangChain 插件的提示注入技術,您可以獲得遠程代碼執行(在舊版本的 LangChain 中)、服務器端請求偽造或 SQL 注入功能,具體取決于受攻擊的插件。通過檢查這些漏洞,您可以識別它們之間的常見模式,并了解如何設計支持 LLM 的系統,
Source
]]>
7555
-
NVIDIA AI 紅隊簡介
http://www.open-lab.net/zh-cn/blog/nvidia-ai-red-team-an-introduction/
Wed, 14 Jun 2023 05:02:01 +0000
http://www.open-lab.net/zh-cn/blog/?p=7205
Continued]]>
機器學習有希望改善我們的世界,而且在很多方面它已經做到了。然而,研究和生活經驗繼續表明,這項技術存在風險。過去僅限于科幻小說和學術界的能力越來越多地向公眾開放。負責任地使用和開發人工智能需要在可行的情況下對列舉的風險進行分類、評估和減輕。從純人工智能的角度來看,這是真的,但從標準信息安全的角度來看也是如此。 在標準到位和成熟的測試站穩腳跟之前,各組織都在使用紅隊來探索和列舉人工智能帶來的直接風險。這篇文章介紹了 NVIDIA 人工智能紅隊的理念和 ML 系統的一般框架。 我們的人工智能紅隊是一支由進攻性安全專業人員和數據科學家組成的跨職能團隊。我們使用我們的綜合技能來評估我們的 ML 系統,以從信息安全的角度識別并幫助減輕任何風險。 信息安全有很多有用的范例、工具和網絡訪問,使我們能夠在所有領域加快負責任的使用。該框架是我們的基礎,并將評估工作引向組織內的標準。
Source
]]>
7205
-
5G 網絡安全的新前沿
http://www.open-lab.net/zh-cn/blog/a-new-frontier-for-5g-network-security/
Wed, 31 May 2023 05:10:30 +0000
http://www.open-lab.net/zh-cn/blog/?p=7081
Continued]]>
無線技術發展迅速, 5G 部署在世界各地取得了良好進展。直到最近,無線 RAN 還使用傳統 RAN 供應商的封閉式設備解決方案進行部署。這種封閉式方法不可擴展,未充分利用基礎設施,并且不能提供最佳的 RAN TCO 。它有許多缺點。 我們已經意識到,這種封閉式解決方案在 5G 時代是不可擴展和有效的。 因此,電信行業聯合起來,在具有開放和標準接口的商用現貨( COTS )硬件平臺上推廣和構建虛擬化和云原生 RAN 解決方案。這使得在通用服務器平臺上能夠實現更大的生態系統和靈活的解決方案,利用虛擬化和云原生技術的優點。 這種方法有很多積極的方面:更低的成本、更大的生態系統和供應商選擇、更快的創新周期、自動化和可擴展性。然而,一個令人擔憂的領域是,開放式 RAN 架構可能導致更大的攻擊面,并可能導致新的安全風險。 作為加速計算平臺的技術領導者,
Source
]]>
7081
-
使用 NVIDIA DOCA 2.0 轉化 IPsec 部署
http://www.open-lab.net/zh-cn/blog/transforming-ipsec-deployments-with-nvidia-doca-2-0/
Tue, 09 May 2023 02:42:33 +0000
http://www.open-lab.net/zh-cn/blog/?p=6912
Continued]]>
NVIDIA DOCA 2 . 0 于 2023 年 3 月發布,是 BlueField DPU 的 NVIDIA SDK 的最新版本。聯合 NVIDIA DOCA 和 BlueField DPU,能通過一個全面、開放的開發平臺,加快了提供突破性網絡、安全和存儲性能的應用程序的開發。 NVIDIA DOCA 2 . 0 新增了對 BlueField -3 數據路徑加速器( DPA )子系統的支持,并增加了對 DOCA 存儲仿真和 VirtIO 仿真的增強。 DOCA 2 . 0 還引入了新的 GPUNetIO 庫,即 IPsec 加密和解密庫,并為 DOCA Flow 庫添加了功能。 如在最近的 NVIDIA GTC 中所公布, NVIDIA DOCA 2 . 0 為 BlueField -3 啟用了許多以安全為重點的用例。
Source
]]>
6912
-
使用 VMware vSphere 8 和 NVIDIA BlueField DPU 加速 Redis 性能
http://www.open-lab.net/zh-cn/blog/accelerating-redis-performance-using-vmware-vsphere-8-and-nvidia-bluefield-dpus/
Fri, 05 May 2023 03:24:40 +0000
http://www.open-lab.net/zh-cn/blog/?p=6920
Continued]]>
向現代分布式工作負載的轉變,以及更高的網絡速度,增加了基礎設施服務的開銷。為企業提供動力的應用程序可用的 CPU 周期較少。部署數據處理器( DPU )來卸載和加速這些基礎設施服務可以提供更快的性能、更低的 CPU 利用率和更好的能源效率。 許多現代工作負載是分布式的,這意味著它們不再只適用于一臺服務器。相反,它們在多個服務器上同時運行,以實現更大的可擴展性和可用性。此類工作負載包括網絡和電子商務應用程序,如 NoSQL 數據庫、分析、人工智能和 Redis 等關鍵價值商店。 許多公司在 vSphere 企業工作負載平臺上運行這些分布式工作負載。隨著應用程序的不同部分在虛擬機和主機之間進行通信, vSphere 必須投入越來越多的 CPU 功率來管理數據移動和網絡等基礎架構工作負載。 在 CPU 和 DPU 上運行網絡和安全基礎設施服務,
Source
]]>
6920
-
使用 NVIDIA WJH 更快地診斷網絡問題
http://www.open-lab.net/zh-cn/blog/diagnosing-network-issues-faster-with-wjh/
Thu, 04 May 2023 03:49:59 +0000
http://www.open-lab.net/zh-cn/blog/?p=6936
Continued]]>
人工智能已經無縫地融入了我們的生活,并以幾年前我們甚至無法想象的方式改變了我們。在過去,對人工智能的感知是一種未來主義和復雜的東西。只有大公司在其擁有 HPC 技術的超級計算機上使用人工智能來預測天氣,并在醫療保健和科學領域取得突破性發現。 如今,由于 GPU 、 CPU 、高速存儲和人工智能優化的軟件創新,每個人都可以訪問人工智能。您甚至可以將人工智能作為服務( SaaS )或基礎設施( IaaS )部署在云中。 我們見證了人工智能在每個行業的廣泛應用:醫療保健和金融、自動駕駛汽車、廣告推薦,以及最近創建和編輯視頻、圖像和音樂等內容的生成人工智能。隨著最近推出的 ChatGPT-4 ,它使用大型語言模型( LLM )來理解、響應,甚至像人類一樣生成文本,思考我們可以實現的無限潛力是令人興奮的。 充分利用您的人工智能需要的不僅僅是昂貴的高端 GPU 和存儲系統。
Source
]]>
6936
-
使用 NVIDIA BlueField DPU 加速 Suricata IDS / IPS
http://www.open-lab.net/zh-cn/blog/accelerating-the-suricata-ids-ips-with-nvidia-bluefield-dpus/
Thu, 04 May 2023 03:41:44 +0000
http://www.open-lab.net/zh-cn/blog/?p=6930
Continued]]>
深度數據包檢測( DPI )是網絡安全的一項關鍵技術,能夠在數據包在網絡中傳輸時對其進行檢測和分析。通過檢查這些數據包的內容, DPI 可以識別潛在的安全威脅,如惡意軟件、病毒和惡意流量,并防止它們滲透到網絡中。然而, DPI 的實現也帶來了對網絡性能的顯著影響。 使用 NVIDIA BlueField DPU 降低了執行深度數據包檢查的成本和性能影響。 Suricata 是一款高性能、開源的網絡分析和威脅檢測應用程序,由私人和公共組織使用,并由主要供應商嵌入以保護資產。使用 Suricata (或任何其他入侵檢測系統和入侵保護系統( IDS / IPS )解決方案)檢查高通量流量需要高 CPU 使用率。因此, CPU 可用性可能會成為一個瓶頸。 數據中心的流量檢查可以是集中式的,也可以是分布式的: 每種方法都有其優點和缺點。分布式檢查更為復雜,
Source
]]>
6930
-
NVIDIA 實現值得信賴、安全可靠的大型語言模型對話系統
http://www.open-lab.net/zh-cn/blog/nvidia-enables-trustworthy-safe-and-secure-large-language-model-conversational-systems/
Tue, 25 Apr 2023 05:35:01 +0000
http://www.open-lab.net/zh-cn/blog/?p=6789
Continued]]>
大語言模型( LLM )非常強大,能夠回答復雜的問題,進行創造性的寫作、開發、調試源代碼等。通過將 LLM 應用程序連接到外部工具,例如從實時源讀取數據,或者使 LLM 能夠決定根據用戶的請求采取什么行動,您可以構建極其復雜的 LLM 應用。然而,以安全可靠的方式構建這些 LLM 應用程序具有挑戰性。 NeMo Guardrails 是一個開源工具包,用于輕松開發安全可靠的 LLM 會話系統。由于生成人工智能的安全性是全行業關注的問題, NVIDIA 設計 NeMo Guardrails 與所有 LLM 一起工作,包括 OpenAI 的 ChatGPT 。 該工具包由社區構建的工具包提供支持,如 LangChain ,它在短短幾個月內就在 GitHub 上聚集了約 3 萬顆星。工具包提供了可組合、易于使用的模板和模式,通過將 LLM 、
Source
]]>
6789
人人超碰97caoporen国产