Data Center / Cloud Computing – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Tue, 08 Feb 2022 07:02:44 +0000
zh-CN
hourly
1
196178272 -
使用 NetQ 4.1.0 分析結構范圍內的網絡延遲
http://www.open-lab.net/zh-cn/blog/analyzing-fabric-wide-network-latency-with-netq-4-1-0/
Mon, 07 Feb 2022 07:00:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=3001
Continued]]>
NetQ 4.1.0 最近發布,引入了結構范圍的網絡延遲和緩沖區占用分析,以及許多其他增強功能。有關所有新功能的更多信息,請參閱 NetQ 4.1.0 用戶指南 。 這篇文章包括以下特點: NetQ 首次通過使用實時應用程序流量來解決影響應用程序性能的網絡問題,提供了網絡范圍的結構延遲和緩沖區占用分析。 NetQ 使用 Cumulus Linux 對匹配 4 元組和 5 元組應用程序流的數據包進行采樣,分析并報告每個交換機的延遲(最大、最小、平均)以及流路徑上的緩沖區占用詳細信息。 NetQ 圖形用戶界面會報告所有可能的路徑、正在使用的路徑以及每個路徑的詳細信息(圖 1 )。在每個交換機上,都可以看到最小延遲、最大延遲和平均延遲。 WJH 是一種始終在線的全數據包檢查工具,用于以線路速率檢測網絡問題,包括數據包丟失、擁塞和延遲問題。通過與 WJH 合作,
Source
]]>
3001
-
用標準語言并行性開發加速代碼
http://www.open-lab.net/zh-cn/blog/developing-accelerated-code-with-standard-language-parallelism/
Wed, 12 Jan 2022 05:03:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2768
Continued]]>
NVIDIA 平臺是最成熟、最完整的加速計算平臺。在這篇文章中,我將介紹最簡單、最高效、最可移植的加速計算方法。有三種編程方法 GPU (圖 1 )。 CUDA C ++ Fortran 是 NVIDIA 可以展示新硬件和軟件創新的創新平臺,在這里,您可以調整應用程序以在 NVIDIA GPU 上實現最佳性能。許多開發人員認為這就是 NVIDIA 希望每個人為 GPU 編程的方式。 相反,我們預計,開發者首次來到NVIDIA 平臺將使用標準的并行編程語言,如 ISO C ++、 ISO Fortran 和 Python 。在這篇文章中,我強調了使用這種方法進行并行編程的一些成功,以證明進入NVIDIA CUDA 生態系統的最有成效的途徑。 NVIDIA 戰略的基礎是提供一套豐富、成熟的 SDK 和庫,在這些數據庫上可以構建應用程序。
Source
]]>
2768
-
通過 NVIDIA AIR 上的 Digital Twins 實現網絡自動化效率的最大化
http://www.open-lab.net/zh-cn/blog/maximize-network-automation-efficiency-with-digital-twins/
Fri, 07 Jan 2022 07:47:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2747
Continued]]>
自動化是提高運營效率和降低運營成本的關鍵,但它不能保證數據中心部署的成功。雖然自動化可以確認配置完整性并防止重復更改中的人為錯誤,但它無法驗證意圖和網絡需求。因此,自動化必須在部署前測試和驗證,而NVIDIA 的方式是用 數據中心數字孿生。 。 數據中心數字雙網絡是物理網絡環境的 1:1 模擬,每個交換機、服務器和電纜都有邏輯實例。這使它能夠用于驗證路由( BGP 、 EVPN )、安全策略遵從性、自動化、監控工具和升級過程。 這個數字孿生托管在云中,使團隊能夠在不增加物理基礎設施開銷的情況下大規模測試其配置。數據中心數字孿生提供了許多好處: NVIDIA Air 是創建網絡數字孿生的免費平臺。這些數字雙胞胎可以是現有拓撲、預構建拓撲的克隆,也可以是定制設計的網絡,可以擴展到 1000 臺交換機和服務器。
Source
]]>
2747
-
利用高性能虛擬工作站加速地球科學工作流程
http://www.open-lab.net/zh-cn/blog/accelerating-geoscience-workflows-with-high-performance-virtual-workstations/
Fri, 17 Dec 2021 06:01:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2700
Continued]]>
無論是遠程工作還是辦公室工作,地球科學家都依賴于快速訪問大型復雜數據集來提高工作效率。然而,他們高達 40% 的時間花在等待數據加載上,額外的時間浪費在等待使用高成本遺留 IT 系統的地球科學應用上。 為了提高地球科學家的生產力,地球計算集團、聯想和 NVIDIA 合作開發了一種遠程解釋和可視化設備( RiVA )。高性能計算平臺是專門為地下工作流程創建的,包括地震分析和儲層模擬。 使用 RiVA ,石油和天然氣企業能夠以 50 到 100 倍的速度訪問數據,并顯著縮短模型部署時間。 Riva 為勘探和生產中使用的遠程托管、行業標準應用程序提供了高性能、低延遲、整合的環境。該平臺將聯想服務器和存儲與 NVIDIA RTX 、 GPU 、 NVIDIA RTX 虛擬工作站以及 Infiniband 高速網絡集成在一起。
Source
]]>
2700
-
具有往返時間擁塞控制的縮放零接觸 RoCE 技術
http://www.open-lab.net/zh-cn/blog/scaling-zero-touch-roce-technology-with-round-trip-time-congestion-control/
Tue, 14 Dec 2021 06:55:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2664
Continued]]>
NVIDIA Zero Touch RoCE ( ZTR )使數據中心能夠無縫部署 聚合以太網上的 RDMA ( RoCE ) ,而無需任何特殊交換機配置。直到最近, ZTR 還僅適用于中小型數據中心。同時,大規模部署傳統上依賴于顯式擁塞通知( ECN )來啟用 RoCE 網絡傳輸,這需要交換機配置。 新的 NVIDIA 擁塞控制算法往返時間擁塞控制( RTTCC ) – 允許 ZTR 在不影響性能的情況下擴展到數千臺服務器。通過使用 ZTR 和 RTTCC ,數據中心運營商可以在無需任何交換機配置的情況下,享受部署和操作的便利性,以及大規模遠程直接內存訪問( RDMA )的卓越性能。 這篇文章描述了以前在大規模和小型 RoCE 部署中推薦的 RoCE 擁塞控制。然后介紹了一種新的擁塞控制算法,該算法允許 ZTR 的無配置大規模實現,其性能類似于支持 ECN 的 RoCE 。
Source
]]>
2664
-
使用 HPC SDK 21.11 (現已提供)最大限度地提高 HPC 應用程序的性能
http://www.open-lab.net/zh-cn/blog/maximize-performance-of-hpc-apps-with-hpc-sdk-21-11-available-now/
Mon, 13 Dec 2021 04:38:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2634
Continued]]>
在超級計算大會 (SC21) 上,NVIDIA 預先宣布了 HPC SDK 的下一次更新。今天,HPC SDK 21.11 版本發布給開發者計劃成員免費下載 高性能 NVIDIA SDK 是一套全面的編譯器和庫,用于高性能計算開發。它包括各種各樣的工具,這些工具被證明可以最大限度地提高開發人員的生產率,以及 HPC 應用程序的性能和可移植性。 HPC SDK 及其組件每年都會更新多次,包括新功能、性能提升和其他增強功能。 此 21.11 版本將包括對 HPC ++/ Fortran 編譯器支持和開發人員環境的更新,以及新的多節點多 GPU 庫功能。 …
Source
]]>
2634
-
通過免費的入門課程開始使用 DPU 的 DOCA
http://www.open-lab.net/zh-cn/blog/free-dli-course-introduction-to-doca-for-dpus/
Tue, 07 Dec 2021 03:49:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2608
Continued]]>
繼在今年的 GTC 上宣布 搶先體驗 NVIDIA DOCA 軟件框架之后,,我們推出了一個自定進度的 DOCA 課程,幫助您開始使用這個新框架。 NVIDIA 深度學習學院( DLI ) 提供免費的自定進度課程,名為 DPU 的 DOCA 簡介 “在這門 2 小時的入門課程中,您將了解 DOCA 和 DPU 如何幫助開發加速數據中心服務的應用程序。本次備受期待的培訓涵蓋了 DOCA 平臺的基本要素。 在過去的十年中,計算已經突破了個人電腦和服務器的局限,進入了超規模的數據中心。隨著這一范式的轉變,數據處理器( DPU )應運而生,這是一類新的可編程處理器,將 CPU 和 GPU 合并為計算的三大支柱之一。 DPU 旨在從 CPU 上卸載所有虛擬數據中心,如網絡、安全和存儲工作負載。通過這樣做,它們有意義地減少了服務器 CPU 專注于其主要應用程序工作負載的開銷。
Source
]]>
2608
-
通過網絡數字孿生引領全球供應鏈
http://www.open-lab.net/zh-cn/blog/navigating-the-global-supply-chain-with-networking-digital-twins/
Mon, 06 Dec 2021 06:17:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2550
Continued]]>
以太網交換機、跑車、家用電器和衛生紙有什么共同點?如果你讀了這篇博客的標題,并且經歷了過去一年半,你可能知道答案。這些產品的可用性都受到全球大流行造成的材料短缺的影響。 在某些情況下,供應問題更像是一種不便——再多等幾個月才能得到那輛新的克爾維特不會是世界末日。對于其他產品(比如廁紙或替代冰箱),供應短缺過去是,現在也是一個大問題。 這對消費者的影響顯而易見,但企業也感受到了交付周期過長的痛苦。考慮以太網交換機:以太網交換機構建將數據中心聯系在一起的網絡結構。以太網交換機短缺不僅僅意味著“機架 A 無法與機架 B 通信”。它們意味著總吞吐量降低,現有基礎設施上的負載增加,導致更多停機和計劃外停機;也就是說,對業務成果產生重大不利影響。 這聽起來很糟糕,但沒有必要驚慌。 你可以通過 NVIDIA Air 的數據中心數字孿生幫助您緩解這些挑戰,并轉變您的運營。 那么,
Source
]]>
2550
-
通過全堆棧優化提升 NVIDIA MLPerf Training v1.1 的性能
http://www.open-lab.net/zh-cn/blog/boosting-mlperf-training-v1-1-performance-with-full-stack-optimization/
Wed, 01 Dec 2021 05:30:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2511
Continued]]>
自 v1.0 以來已經過去了五個月,所以是時候進行新一輪 MLPerf 培訓基準了。在這個 v1.1 版本中,整個硬件和軟件堆棧的優化看到了基于 NVIDIA 平臺提交的基準測試套件的持續改進。這種改進在所有不同的尺度上都是一致的,從單個機器到工業超級計算機,例如由 560 個 NVIDIA DGX A100 系統組成的英偉達 SeleN 和由 768 個節點 A100 系統組成的微軟 Azure NDM A100 V4 集群。 越來越多的組織使用MLPerf基準來指導其AI基礎設施戰略。MLPerf(VZX19的一部分)是由學術界、研究實驗室和工業界的人工智能領導者組成的全球聯盟,其使命是 建立公平和有用的基準 ,為在規定條件下進行的硬件、軟件和服務的培訓和推理性能提供公正的評估。為了保持行業趨勢的領先地位,MLPerf不斷發展,定期舉行新的測試,并添加代表AI最先進水平的新工作負載。
Source
]]>
2511
-
NVIDIA BlueField DPU 生態系統隨著合作伙伴推出聯合解決方案而擴展
http://www.open-lab.net/zh-cn/blog/nvidia-bluefield-dpu-ecosystem-expands-as-partners-introduce-joint-solutions/
Mon, 29 Nov 2021 04:56:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2479
Continued]]>
英偉達最近推出了 NVIDIA DOCA 1.2 軟件框架 對于 英偉達 BlueField DPU ,世界上最先進的數據處理器( DPU )。此最新版本建立在 DOCA 早期訪問計劃 使合作伙伴和客戶能夠加快 DPU 上應用程序和整體零信任解決方案的開發。 NVIDIA 正與領先的平臺供應商和合作伙伴合作,整合并擴展 DOCA 對 NVIDIA BlueField DPU 上商業發行版的支持。了解這些行業領先者如何開始使用 DPU / DOCA 體系結構集成其解決方案,因為關鍵合作伙伴在最近的 NVIDIA GTC 上展示了這些解決方案。 Red Hat – “ 利 NVIDIA Morpheus 人工智能框架檢測敏感信息 “ 紅帽和英偉達一直致力于將 NVIDIA Morpheus AI 應用框架的安全分析能力引入網絡安全開發者的紅帽基礎架構平臺。這篇文章提供了一組配置指令,
Source
]]>
2479
-
與 NVIDIA Clara Imaging 和 MD.AI 合作驗證 AI 模型
http://www.open-lab.net/zh-cn/blog/validating-ai-models-collaboratively-with-clara-imaging-and-md-ai/
Mon, 29 Nov 2021 04:44:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2462
Continued]]>
使用 NVIDIA Clara 構建的醫療成像 AI 模型現在可以在云計算的 MD.ai 上本地運行,從而使用現代 web 瀏覽器實現協作模型驗證和快速注釋項目。這些 NVIDIA Clara 模型可免費用于任何 MD.ai 合作研究項目,如器官或腫瘤分割。 人工智能解決方案已被證明有助于簡化放射學和企業成像工作流程。然而,創建、共享、測試和縮放計算機視覺模型的過程并不像所有模式、條件和結果那樣簡化。需要幾個關鍵組件來創建穩健的模型,并支持最多樣化的采集設備和患者群體。這些關鍵組件可以包括為未注成像研究創建基本事實的能力,以及在全球范圍內合作評估模型與驗證數據的使用的能力。 MD.ai 的實時協作標注平臺和英偉達 Clara 深度學習培訓框架有助于創建更健壯的模型構建和協作。 在這篇文章中,我們將介紹 Clara Train MMAR 的基礎知識,以及準備使用 MD.
Source
]]>
2462
-
AWS 推出首款基于 NVIDIA GPU 加速引力子的 Amazon EC2 G5g 實例
http://www.open-lab.net/zh-cn/blog/aws-launches-first-nvidia-gpu-accelerated-graviton-based-instance-with-amazon-ec2-g5g/
Mon, 29 Nov 2021 04:38:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2456
Continued]]>
今天,在 AWS re : Invent2021 大會上, AWS 宣布 推出了 Amazon EC2 G5g 實例,將第一個基于 NVIDIA GPU 的 Arm 加速實例引入 AWS 云。新的 EC2 G5g 實例以基于 64 位 Arm Neoverse 內核的 AWS Graviton2 處理器和 NVIDIA T4G Tensor Core GPU 為特色,增強了圖形密集型應用。 這種強大的組合為 Android 游戲內容創造了一個最佳的開發環境。它還帶來了更豐富的 Android 游戲體驗,可以流式傳輸到各種各樣的移動設備上。 EC2 G5g 實例使游戲開發人員能夠支持和優化游戲,以便在各種移動設備上實現高質量的流媒體傳輸。您可以在基于 Arm 的 Graviton2 處理器上開發 Android 游戲,使用 NVIDIA T4G GPU 加速圖形渲染和編碼,
Source
]]>
2456
-
MLPerf HPC v1.0 :深入研究優化,創造 NVIDIA 創紀錄的性能
http://www.open-lab.net/zh-cn/blog/mlperf-hpc-v1-0-deep-dive-into-optimizations-leading-to-record-setting-nvidia-performance/
Wed, 17 Nov 2021 07:10:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2387
Continued]]>
在 MLPerf HPC v1 . 0 中, NVIDIA 供電系統贏得了五項新的行業指標中的四項,這些指標主要關注 HPC 中的人工智能性能。作為一個全行業人工智能聯盟, MLPerf HPC 評估了一套性能基準,涵蓋了廣泛使用的人工智能工作負載。 在這一輪中,與 MLPerf 0 . 7 的強大擴展性結果相比, NVIDIA 在 CosmoFlow 上的性能提高了 5 倍,在 DeepCAM 上的性能提高了 7 倍。這一強大的表現得益于成熟的 NVIDIA AI 平臺和全套軟件。 提供豐富多樣的庫、 SDK 、工具、編譯器和探查器,很難知道在正確的情況下何時何地應用正確的資產。這篇文章詳細介紹了各種場景的工具、技術和好處,并概述了 CosmoFlow 和 DeepCAM 基準測試所取得的成果。 我們已經為 MLPerf Training v1.0…
Source
]]>
2387
-
使用 HPC SDK v21.11 最大限度地提高 HPC 應用程序的性能和可移植性
http://www.open-lab.net/zh-cn/blog/maximize-performance-and-portability-of-hpc-apps-with-hpc-sdk-v21-11/
Tue, 16 Nov 2021 06:52:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2377
Continued]]>
今天, NVIDIA 宣布了即將發布的 HPCSDK21 . 11 版本,其中包含新的庫增強功能。該軟件將在未來幾周內免費提供。 NVIDIA HPC SDK 是一套用于高性能計算開發的綜合編譯器和庫。它包括各種各樣的工具,這些工具被證明可以最大限度地提高開發人員的生產率,以及 HPC 應用程序的性能和可移植性。 HPC SDK 及其組件每年都會更新多次,包括新功能、性能提升和其他增強功能。 此 21 . 11 版本將包括對 HPC ++/ Fortran 編譯器支持和開發人員環境的更新,以及新的多節點 mulit GPU 庫功能。 NVFORTRAN 編譯器在去年的版本 20 . 11 中引入,它自動并行化使用 DO 并發標準語言功能編寫的代碼,如 此文章 中所述。 在 21 . 11 版中,程序員可以使用 ISO Fortran 標準當前工作草案中描述的…
Source
]]>
2377
-
新的在線課程提供使用 AWS 和 NVIDIA 進行機器學習的實踐
http://www.open-lab.net/zh-cn/blog/new-online-course-offers-hands-on-machine-learning-using-aws-and-nvidia/
Fri, 12 Nov 2021 07:13:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=2322
Continued]]>
AWS 和 NVIDIA 合作開發了一個在線課程,通過 NVIDIA Amazon 提供的 EC2 實例,指導您完成 Amazon GPU 的簡單易學和實用介紹。本課程以服務的實際應用為基礎,讓您有機會從機器學習開發方面的專家那里親身學習。通過簡單而直接的方法,一旦完成,您將有信心和能力立即開始您的 ML 項目的工作。 機器學習可能是復雜、乏味和耗時的。 AWS 和 NVIDIA 提供了最快、最有效和易于使用的 ML 工具,幫助您開始您的 ML 項目。 Amazon SageMaker 通過匯集一系列專門為 ML 而構建的功能,幫助數據科學家和開發人員快速準備、構建、培訓和部署高質量的 ML 模型。 Amazon EC2 實例由 NVIDIA GPU 提供支持與 NVIDIA 軟件一起,在云中提供高性能、[ZFBB]優化實例,以實現高效的模型訓練和經濟高效的模型推理托管。
Source
]]>
2322
人人超碰97caoporen国产