聯合學習 – NVIDIA 技術博客 http://www.open-lab.net/zh-cn/blog 閱讀開發者創建的最新技術信息、頭條新聞 和內容。 Wed, 26 Mar 2025 09:24:46 +0000 zh-CN hourly 1 196178272 集成 Flower和 NVIDIA FLARE,加速聯邦學習生態系統發展 http://www.open-lab.net/zh-cn/blog/supercharging-the-federated-learning-ecosystem-by-integrating-flower-and-nvidia-flare/ Mon, 24 Mar 2025 09:19:21 +0000 http://www.open-lab.net/zh-cn/blog/?p=13375 Continued]]> 近年來, Flower 和 NVIDIA FLARE 等開源系統已成為聯邦學習 (FL) 領域的關鍵工具,每個系統都有其獨特的關注點。Flower 支持統一的 FL 方法,使研究人員和開發者能夠輕松設計、分析和評估 FL 應用。 隨著時間的推移,它積累了一套豐富的策略和算法,在學術界和行業中培育了一個蓬勃發展的社區。 另一方面,NVIDIA FLARE 面向生產級應用程序,提供專為可靠性和可擴展性而構建的企業就緒型運行時環境。通過專注于強大的基礎設施,FLARE 使 FL 部署能夠無縫滿足現實世界環境的需求。 本文介紹了我們在連接這兩個框架方面所做的努力,并展示了它們的聯合優勢如何提升整個 FL 生態系統。這種集成使使用 Flower 開發的應用能夠在 FLARE 運行時上以原生方式運行,而無需修改任何代碼。通過將 Flower 廣泛采用、

Source

]]>
13375
NVIDIA FLARE 助力聯邦 XGBoost 實現實用高效 http://www.open-lab.net/zh-cn/blog/federated-xgboost-made-practical-and-productive-with-nvidia-flare/ Fri, 28 Jun 2024 05:21:48 +0000 http://www.open-lab.net/zh-cn/blog/?p=10546 Continued]]> XGBoost 是一種高效且可擴展的機器學習算法,廣泛應用于回歸、分類和排名任務。它基于梯度提升原則,將多個弱學習者(通常是決策樹)的預測結合起來,以生成穩健的整體模型。 XGBoost 在處理大型數據集和復雜數據結構方面表現優異,這要歸功于其高效的實施和高級功能,如正則化、并行處理和處理缺失值。其通用性和高性能使其成為各行各業數據科學競賽和實際應用的熱門選擇。 XGBoost 1.7.0 版本引入了 Federated XGBoost,使多個機構能夠無需移動數據即可聯合訓練 XGBoost 模型。在 XGBoost 2.0.0 版本中,此功能得到進一步增強,以支持垂直聯合學習。OSS Federated XGBoost 提供 Python APIs 用于模擬基于 XGBoost 的聯合訓練。 自 2023 年以來,NVIDIA 聯邦學習應用程序運行時環境 (FLARE)…

Source

]]>
10546
借助 NVIDIA FLARE 2.4,在幾分鐘內將機器學習轉變為聯邦學習 http://www.open-lab.net/zh-cn/blog/turning-machine-learning-to-federated-learning-in-minutes-with-nvidia-flare-2-4/ Wed, 06 Mar 2024 06:12:36 +0000 http://www.open-lab.net/zh-cn/blog/?p=9115 Continued]]> 協同學習 (FL) 受到加速采用的原因在于其分布式、保護隱私的特性。在醫療健康和金融服務等領域,協同學習 (FL) 作為一種隱私增強技術,已成為技術堆棧的關鍵組成部分。 在本文中,我們討論了 FL 及其優勢,深入探討了聯邦學習為何如此受歡迎。此外,我們還介紹了 NVIDIA FLARE 2.4.0 版本中引入的三個關鍵特征,這些特征有助于從集中式機器學習過渡到聯邦學習,并通過流式傳輸 API 增強大型語言模型 (LLM) 支持。此外,我們還展示了各種參數調整任務。 最新版本的 FLARE 擴展了 FL 工作流模式,為研究人員提供更多工作流程自定義選項。我們分享了醫療健康、銀行、金融服務和保險 (BFSI) 領域的不同用例,以展示 FL 應用程序在生產環境中或通過示例。 FL 是一種機器學習方法,允許在分布式設備上進行模型訓練和數據分析,同時保護本地數據的私密性。

Source

]]>
9115
借助 NVIDIA FLARE 實現可擴展聯邦學習,提升 LLM 性能 http://www.open-lab.net/zh-cn/blog/scalable-federated-learning-with-nvidia-flare-for-enhanced-llm-performance/ Thu, 29 Feb 2024 07:02:21 +0000 http://www.open-lab.net/zh-cn/blog/?p=9150 Continued]]> 隨著人工智能技術的不斷發展,大型語言模型(LLM) 的有效數據管理成為一個重要挑戰。數據是模型性能的核心。盡管大多數先進的 機器學習 算法以數據為中心,但由于各種因素(如隱私、監管、地緣政治、版權問題和移動大型數據集所需的巨大努力),并非所有必要數據都可以集中。 本文探討了如何利用聯邦學習(FL),由NVIDIA FLARE提供支持,以簡單且可擴展的方式應對這些挑戰。這些功能支持監督式微調和參數效率的精細調整,從而增強模型的準確性和穩健性。 在許多 LLM 任務中,需要從多個來源獲取數據是一種常見場景。例如,為醫學研究收集來自不同醫院的報告,或從各種機構收集金融數據進行分析。集中這些數據可能不切實際,也可能受到隱私問題、法規和其他障礙的限制。聯合學習提供了一個精美的解決方案。 FL 已成為解決這些數據挑戰的技術。

Source

]]>
9150
人人超碰97caoporen国产