]]>13408借助 NVIDIA Mission Control 實現 AI 工廠自動化
http://www.open-lab.net/zh-cn/blog/automating-ai-factory-operations-with-nvidia-mission-control/
Tue, 25 Mar 2025 08:51:04 +0000http://www.open-lab.net/zh-cn/blog/?p=13363Continued]]>DeepSeek-R1 等先進的 AI 模型證明,企業現在可以構建專用于自己的數據和專業知識的尖端 AI 模型。這些模型可以根據獨特的用例進行定制,以前所未有的方式應對各種挑戰。 基于早期 AI 采用者的成功,許多組織正在將重點轉移到全面生產的 AI 工廠 。然而,創建高效 AI 工廠的過程復雜且耗時,并且不同于構建特定于垂直行業的 AI 的目標。 它涉及到樓宇自動化,用于調配和管理復雜的基礎設施,在最新平臺上維護具有專業技能的站點可靠性工程師(SRE)團隊,以及大規模開發流程以實現超大規模的效率。此外,開發者需要一種方法來利用 AI 基礎設施的強大功能,同時具備超大規模數據中心的敏捷性、效率和規模,同時避免成本、復雜性和專業知識等方面的負擔。 本文將介紹 NVIDIA Mission Control (一個為使用 NVIDIA 參考架構構建的 AI…
]]>13330借助 NVIDIA 全棧解決方案提升 AI 推理性能
http://www.open-lab.net/zh-cn/blog/optimize-ai-inference-performance-with-nvidia-full-stack-solutions/
Tue, 24 Dec 2024 05:43:02 +0000http://www.open-lab.net/zh-cn/blog/?p=12923Continued]]>AI 驅動的應用的爆炸式發展對開發者提出了前所未有的要求,他們必須在提供先進的性能與管理運營復雜性和成本以及 AI 基礎設施之間取得平衡。 NVIDIA 正在為開發者提供涵蓋芯片、系統和軟件的全棧創新,重新定義 AI 推理 的可能性,使其比以往更快、更高效、更具可擴展性。 六年前,NVIDIA 著手打造 AI 推理服務器,專為構建高吞吐量、延遲關鍵型生產應用的開發者而設計。當時,許多開發者都在努力使用定制的、特定于框架的服務器,這些服務器增加了復雜性,增加了運營成本,并且難以滿足嚴格的服務水平協議(service-level agreements)關于延遲和吞吐量的要求。 為解決這一問題,NVIDIA 開發了 NVIDIA Triton Inference Server ,這是一個開源平臺,能夠為來自任何 AI 框架的模型提供服務。通過整合特定于框架的推理服務器,
]]>12054NVIDIA Grace CPU 實現全球頂級數據中心性能和突破性能效優勢
http://www.open-lab.net/zh-cn/blog/nvidia-grace-cpu-delivers-world-class-data-center-performance-and-breakthrough-energy-efficiency/
Wed, 09 Oct 2024 05:11:03 +0000http://www.open-lab.net/zh-cn/blog/?p=11758Continued]]>NVIDIA 將 NVIDIA Grace CPU 設計為一種新型高性能數據中心 CPU,旨在提供突破性的 能效 ,并針對數據中心規模的性能進行了優化。 與傳統 CPU 計算相比,加速計算在性能和能效方面實現了巨大的飛躍。為了實現這些加速,需要數據中心規模的全棧創新,涵蓋芯片、系統、軟件和算法。為適合的工作負載選擇合適的架構并提供出色的節能性能對于最大限度地提高數據中心的性能和最小化占用空間至關重要。 隨著工作負載的加速程度不斷提高,目前仍有一些用例主要在傳統 CPU 上運行,尤其是圖形分析等稀疏和“分支”序列化任務的代碼。與此同時,數據中心受到越來越多的電力限制,限制了其能力的增長。這意味著所有可以加速的工作負載都應該加速。那些無法加速的工作負載必須在盡可能高效的計算上運行,而 CPU 必須針對這些工作負載進行優化。
]]>11758將 AI-RAN 引入您附近的電信公司
http://www.open-lab.net/zh-cn/blog/bringing-ai-ran-to-a-telco-near-you/
Tue, 08 Oct 2024 07:54:36 +0000http://www.open-lab.net/zh-cn/blog/?p=11453Continued]]>生成式 AI 和 AI 智能體的推理將推動 AI 計算基礎設施從邊緣分配到中央云的需求。 IDC 預測 ,“商業 AI (消費者除外) 將為全球經濟貢獻 19.9 萬億美元,并占 GDP 的 3.5% 直到 2030 年。” 5G 網絡還必須不斷發展,以服務于新傳入的人工智能流量。在此過程中,電信公司有機會成為托管企業人工智能工作負載的本地人工智能計算基礎設施,獨立于網絡連接,同時滿足其數據隱私和主權要求。這是加速計算基礎設施的亮點所在,能夠加速無線電信號處理和人工智能工作負載。最重要的是,相同的計算基礎設施可用于處理人工智能和無線電接入網(RAN)服務。這種組合被電信行業稱為 AI-RAN 。 NVIDIA 正在推出 Aerial RAN Computer-1,這是全球首個 AI-RAN 部署平臺,可以在通用加速基礎設施上同時服務 AI 和 RAN 工作負載。