]]>2977CUDA 11.6 工具包發布新版本
http://www.open-lab.net/zh-cn/blog/cuda-11-6-toolkit-new-release-revealed/
Mon, 17 Jan 2022 03:51:00 +0000http://www.open-lab.net/zh-cn/blog/?p=2802Continued]]>NVIDIA 發布了 CUDA 開發環境 CUDA 11.6 的最新版本。本版本的重點是增強 CUDA 應用程序的編程模型和性能。 CUDA 繼續推動 GPU 加速度的邊界,并為 HPC 、可視化、 AI 、 ML 和 DL 和數據科學中的新應用奠定基礎。 CUDA 11.6 有幾個重要特性。這篇文章概述了關鍵功能: CUDA 11.6 附帶 R510 驅動程序,這是一個更新分支。 CUDA 11.6 工具包可供下載 . GSP 驅動程序體系結構現在是所有列出的圖靈和安培 GPU 的默認驅動程序模式。較舊的驅動程序體系結構作為后備支持。有關更多信息,請參閱 R510 驅動程序自述 。 我們添加了一個新的 API ,以允許禁用實例化圖中的節點。在此版本中,支持僅限于內核節點。相應的 API 允許查詢節點的啟用狀態。我們還添加了禁用空內核圖節點啟動的功能。
]]>2313數字人類時代:突破真實照片數字角色創作的極限
http://www.open-lab.net/zh-cn/blog/an-era-of-digital-humans-pushing-the-envelope-of-photorealistic-digital-character-creation/
Tue, 09 Nov 2021 10:19:00 +0000http://www.open-lab.net/zh-cn/blog/?p=2282Continued]]>多年來,我們一直致力于 數字人類 的創建。 傳統上,數字人類已經廣泛應用于媒體和娛樂 from video game characters to CGI characters in movies 。但創造數字人類的過程是極其勞動密集型和手工的。它需要數百名領域專家,如藝術家、程序員和技術藝術家。另外,當人造人是假的時,人類也能理解。我們對神秘的山谷效應非常敏感,所以我們知道什么時候發生了什么。 NVIDIA 正在研究加速和簡化數字人類創作的工具和方法 我們相信 AI 和模擬是實現這一點的關鍵。 數字人的核心是我們在虛擬世界中的數字形式。從 3D 游戲的早期開始,VR 戰士是最早展示 3D 角色如何一起戰斗的人之一。如今,玩家可以體驗流行游戲中令人難忘的角色的旅程,如戰爭之神,我們的最后一位。 或者你可能在流行電影中認出了數字人…
]]>2278NVIDIA Omniverse Replicator 為機器人生成合成訓練數據
http://www.open-lab.net/zh-cn/blog/generating-synthetic-datasets-isaac-sim-data-replicator/
Tue, 09 Nov 2021 09:32:00 +0000http://www.open-lab.net/zh-cn/blog/?p=2184Continued]]>AI 先鋒 Andrew Ng 呼吁廣泛轉向以數據為中心的機器學習( ML )方法。他最近舉辦了第一次以數據為中心的人工智能數據質量競賽,許多人聲稱這代表了人工智能 80% 的工作。 “我樂觀地認為,人工智能社區不久將對系統化改進數據和架構模型產生同樣大的興趣,” Ng 在他的時事通訊The Batch中寫道。 在使用合成數據時采用以數據為中心的模型開發方法是一個迭代過程。工程師評估訓練有素的模型并確定數據集中的改進。然后,他們生成新的數據集并開啟新的訓練周期。這個生成數據、訓練模型、評估模型和生成更多數據的過程會持續下去,直到模型按預期執行。 每次迭代中的數據都是在模擬中生成的,而不是在真實世界中收集的,然后進行標記,從而加快了模型訓練的速度。這些可以大規模生成的數據集以培訓工具可以直接使用的格式輸出。該功能消除了在數據預處理中執行額外步驟的麻煩。
]]>2150在動態環境中使用 CUDA 圖
http://www.open-lab.net/zh-cn/blog/employing-cuda-graphs-in-a-dynamic-environment/
Wed, 03 Nov 2021 08:59:00 +0000http://www.open-lab.net/zh-cn/blog/?p=2176Continued]]>通過將計算密集型部件卸載到 GPU 上,可以大大加快許多工作負載。在 CUDA 術語中,這被稱為啟動內核。當這些內核很多且持續時間很短時,啟動開銷有時會成為一個問題。 CUDA Graphs提供了一種減少開銷的方法。圖形之所以有效,是因為它們將任意數量的異步 CUDA API 調用(包括內核啟動)組合到一個只需要一次啟動的操作中。它們在創建時確實會產生一些開銷,因此它們的最大好處來自多次重用。 在 ToolkitVersion10 中引入 CUDA 圖形時,可以對其進行更新,以反映其實例化中的一些細微變化。此后,此類更新操作的覆蓋范圍和效率顯著提高。在這篇文章中,我描述了一些通過使用 CUDA 圖來提高實際應用程序性能的場景,其中一些場景包括圖更新功能。 考慮一個應用程序,該函數具有啟動許多短運行內核的功能,例如: 如果每次遇到此函數時都以相同的方式執行,