智能城市/空間 – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Tue, 27 Feb 2024 23:07:19 +0000
zh-CN
hourly
1
196178272 -
使用新的 NVIDIA AI 基礎模型生成代碼、回答查詢并翻譯文本
http://www.open-lab.net/zh-cn/blog/generate-code-answer-queries-and-translate-text-with-leading-generative-ai-models/
Mon, 05 Feb 2024 07:43:41 +0000
http://www.open-lab.net/zh-cn/blog/?p=8903
Continued]]>
本周的 Model Monday 版本包含 NVIDIA 優化的代碼 Lama、Kosmos-2 和 SeamlessM4T,您可以直接在瀏覽器中體驗。 通過NVIDIA AI 基礎模型和端點,您可以訪問由 NVIDIA 構建的一系列精選社區,生成式 AI用于在企業應用程序中體驗、自定義和部署的模型。 Meta 的 Code Llama 70B 是最新的先進代碼 LLM,專用于代碼生成。它基于 Llama 2 模型構建,提供更高的性能和適應性。該模型可以從自然語言生成代碼,在編程語言之間翻譯代碼,編寫單元測試,并協助調試。 Code Lama 70B 具有 10 萬個令牌的大上下文長度,因此能夠處理和生成時間更長、更復雜的代碼,這對于更全面的代碼生成和提高處理復雜編碼任務的性能非常重要。這種開源模型可用于代碼翻譯、匯總、文檔、分析和調試等各種應用。
Source
]]>
8903
-
借助加速網絡實現數據中心現代化
http://www.open-lab.net/zh-cn/blog/modernizing-the-data-center-with-accelerated-networking/
Tue, 30 Jan 2024 04:05:10 +0000
http://www.open-lab.net/zh-cn/blog/?p=8861
Continued]]>
加速網絡將 CPU、GPU、DPU(數據處理單元)或 SuperNIC 組合成加速計算結構,專門設計用于優化網絡工作負載。它使用專用硬件來卸載要求嚴苛的任務,以增強服務器功能。隨著 AI 和其他新工作負載的復雜性和規模不斷增加,對加速網絡的需求變得至關重要。 數據中心作為計算的新單元,隨著網絡服務對CPU壓力的增加,現代工作負載對網絡基礎設施提出了新的挑戰。網絡基礎設施需要具備敏捷性、自動化和可編程性,并配備加速器和卸載功能,這些是充分發揮人工智能技術潛力和推動創新的關鍵。 本文將探討加速網絡技術在數據中心中的優勢和實施策略,并重點介紹其在提升性能、可擴展性和效率方面的作用。 網絡加速需要優化網絡的各個方面,包括處理器、網絡接口卡 (NIC)、交換機、線纜、光學和網絡加速軟件。利用無損網絡、遠程直接內存訪問 (RDMA)、動態路由、擁塞控制、性能隔離和網絡計算,
Source
]]>
8861
-
使用現已推出 Beta 版的 NVIDIA AI Workbench 來創建、共享和擴展企業 AI 工作流程
http://www.open-lab.net/zh-cn/blog/create-share-and-scale-enterprise-ai-workflows-with-nvidia-ai-workbench-now-in-beta/
Tue, 30 Jan 2024 03:49:20 +0000
http://www.open-lab.net/zh-cn/blog/?p=8855
Continued]]>
NVIDIA AI Workbench 現已進入測試階段,帶來了豐富的新功能,可簡化企業開發者創建、使用和共享 AI 和機器學習 (ML) 項目的方式。在 SIGGRAPH 2023 上發布的 NVIDIA AI Workbench,使開發者能夠在支持 GPU 的環境中輕松創建、協作和遷移 AI 工作負載。欲了解更多信息,請參閱借助 NVIDIA AI Workbench 無縫開發和部署可擴展的生成式 AI 模型。 本文介紹了 NVIDIA AI Workbench 如何幫助簡化 AI 工作流程,并詳細介紹了測試版的新功能。本文還介紹了編碼副駕駛參考示例,該示例使您能夠使用 AI Workbench 在所選平臺上創建、測試和自定義預訓練的生成式 AI 模型。 借助 AI Workbench,開發者和數據科學家可以在 PC 或工作站上靈活地在本地啟動 AI 或 ML 項目,
Source
]]>
8855
-
借助 NVIDIA Metropolis 微服務和 API 構建邊緣視覺 AI 應用
http://www.open-lab.net/zh-cn/blog/how-to-build-vision-ai-applications-at-the-edge-with-nvidia-metropolis-microservices-and-apis/
Tue, 23 Jan 2024 08:49:52 +0000
http://www.open-lab.net/zh-cn/blog/?p=8824
Continued]]>
通過 NVIDIA Metropolis 微服務,開發者可以利用功能強大的云原生 API 和微服務來構建和定制視覺 AI 應用和解決方案。該框架現已與 NVIDIA Jetson 相結合,使得開發者能夠在邊緣快速開發高性能、成熟的視覺 AI 應用,并實現產品化。 API 通過實現不同應用和服務之間的無縫通信和集成,提高了軟件開發的靈活性、互操作性和效率。用于構建視頻分析應用的兩個常見功能是視頻流和基于 AI 的見解和分析生成。 本文介紹了用于構建視覺 AI 應用并將其集成到任何客戶端應用中的 API 工作流程。我們將介紹構建應用的三個關鍵步驟: 適用于 Jetson 的 NVIDIA Metropolis 微服務提供了一個模塊化架構,該架構包含大量可自定義、可重復使用的微服務,這些微服務用于構建視覺 AI 應用。該套件還為基礎設施功能和參考云提供了平臺服務。
Source
]]>
8824
-
借助適用于 Jetson 的 NVIDIA Metropolis 微服務,將生成式 AI 引入邊緣
http://www.open-lab.net/zh-cn/blog/bringing-generative-ai-to-the-edge-with-nvidia-metropolis-microservices-for-jetson/
Tue, 23 Jan 2024 04:24:17 +0000
http://www.open-lab.net/zh-cn/blog/?p=8814
Continued]]>
適用于 Jetson 的 NVIDIA Metropolis 微服務提供了一套易于部署的服務,使您能夠使用最新的 AI 方法快速構建生產級視覺 AI 應用。 本文將介紹如何開發和部署生成式 AI 應用程序,這些應用程序在 NVIDIA Jetson 邊緣 AI 平臺上運行,并通過 Metropolis 微服務進行管理。您可以通過參考示例(這些示例可以作為構建任何模型的一般指南)來進行探索。 參考示例使用獨立的零射檢測 NanoOwl 應用,并將其與 適用于 Jetson 的 Metropolis 微服務 相結合,以便您可以在生產環境中快速構建原型并進行部署。 生成式 AI 是一種機器學習技術,它使模型能夠以比之前方法更開放的方式理解世界。 大多數生成式 AI 的核心是基于 Transformer 的模型,該模型已在互聯網規模的數據上進行訓練。
Source
]]>
8814
-
借助 NVIDIA RTX 系統為 Windows PC 上的 LLM 應用程序提供強效助力
http://www.open-lab.net/zh-cn/blog/supercharging-llm-applications-on-windows-pcs-with-nvidia-rtx-systems/
Mon, 08 Jan 2024 05:52:26 +0000
http://www.open-lab.net/zh-cn/blog/?p=8666
Continued]]>
大型語言模型 (LLM) 正在從根本上改變我們與計算機的交互方式。從互聯網搜索到辦公效率工具,這些模型正被整合到各種應用中。它們正在推進實時內容生成、文本摘要、客戶服務聊天機器人和問答用例的發展。 如今,由 LLM 提供支持的應用程序主要在云端運行。但是,許多用例都將受益于在 Windows PC 上本地運行 LLM,包括游戲、創意、生產力和開發者體驗。 在 CES 2024 上, NVIDIA 發布了一些開發者工具,用于在適用于 Windows PC 的 NVIDIA RTX 系統上加速 LLM 推理和開發。您現在可以使用 NVIDIA 端到端開發者工具在 NVIDIA RTX AI 就緒型 PC 上創建和部署 LLM 應用。 NVIDIA 剛剛宣布為熱門社區模型提供優化支持,包括 Phi-2。除了在 NVIDIA RTX 系統上對 Lama2、
Source
]]>
8666
-
使用 NVIDIA TensorRT 加速的全新 Stable Diffusion 模型
http://www.open-lab.net/zh-cn/blog/new-stable-diffusion-models-accelerated-with-nvidia-tensorrt/
Mon, 08 Jan 2024 05:41:51 +0000
http://www.open-lab.net/zh-cn/blog/?p=8661
Continued]]>
在 CES 上, NVIDIA 分享道,SDXL Turbo、LCM-LoRA 和 Stable Video Diffusion 均由 NVIDIA TensorRT 加速。這些增強功能使 GeForce RTX GPU 用戶能夠實時生成圖像,并節省生成視頻的時間,從而大幅改善工作流程。 SDXL Turbo 利用新的蒸餾技術實現先進的性能,能夠實現單步圖像生成。由 Tensor Core 和 TensorRT 加速的 NVIDIA 硬件每秒可生成多達四張圖像,使您能夠首次體驗到實時 SDXL 圖像生成功能。有關非商業用途和商業用途的更多信息,請參閱 Stability AI 會員資格 頁面。 下載 SDXL Turbo 模型以生成面部表情。 Low-Rank Adaptation (LoRA) 是一種用于微調 Stable Diffusion…
Source
]]>
8661
-
2023 年最熱門的 NVIDIA 技術博客文章:生成式 AI、LLM、機器人開發和虛擬世界的突破
http://www.open-lab.net/zh-cn/blog/year-in-review-trending-posts-of-2023/
Tue, 19 Dec 2023 04:58:25 +0000
http://www.open-lab.net/zh-cn/blog/?p=8555
Continued]]>
在 NVIDIA 激動人心的又一年即將結束之際,是時候回顧 2023 年 NVIDIA 技術博客中最熱門的案例了。 生成式 AI、大型語言模型 (LLM)、高性能計算 (HPC) 和機器人等領域的突破性研究和開發正在引領變革性 AI 解決方案的發展,并吸引了讀者的興趣。其他熱門文章探討了視頻技術和視頻會議領域的進步、增強用戶體驗以及 AI 安全方面的突破。 以下是 2023 年的部分亮點。 借助生成式 AI 快速生成虛擬世界的 3D 素材 NVIDIA Omniverse 上的新生成式 AI 技術增強了虛擬環境中的 3D 素材創建。這些進步旨在使元宇宙中的虛擬世界創建更快、更輕松。 利用 NVIDIA Maxine 眼神交流功能,增強視頻會議中的人際互動 NVIDIA Maxine 眼神交流技術利用 AI 實時調整您對攝像頭的注視點,
Source
]]>
8555
-
使用適用于 ROS 的 NVIDIA Isaac Transport 提升自定義 ROS 圖形
http://www.open-lab.net/zh-cn/blog/boosting-custom-ros-graphs-using-nvidia-isaac-transport-for-ros/
Fri, 17 Nov 2023 05:08:37 +0000
http://www.open-lab.net/zh-cn/blog/?p=8302
Continued]]>
適用于 ROS 的 NVIDIA Isaac Transport(NITROS)是在 ROS 2 Humble 中引入的兩種硬件加速功能——類型適應和類型協商的實現。 類型適應 使 ROS 節點能夠以針對特定硬件加速器優化的數據格式工作。經過調整的類型用于處理圖形,以減少 CPU 和內存加速器之間的內存復制。 通過類型協商,不同的 ROS 節點可以在圖形中公布它們支持的類型,使得 ROS 框架能夠選擇合適的數據格式,從而實現最佳性能。 當兩個支持 NITROS 的 ROS 節點在一個圖形中相鄰時,它們可以通過類型協商發現彼此,然后使用類型適應來共享數據。類型適應和類型協商相結合,通過刪除不必要的內存拷貝,顯著提高了基于 ROS 的應用程序中 AI 和計算機視覺任務的性能。 這降低了 CPU 開銷,并優化了底層硬件的性能。
Source
]]>
8302
-
在 NVIDIA Omniverse Replicator 1.10 中使用低代碼工作流加速合成數據生成
http://www.open-lab.net/zh-cn/blog/boost-synthetic-data-generation-with-low-code-workflows-in-nvidia-omniverse-replicator-1-10/
Wed, 18 Oct 2023 05:57:04 +0000
http://www.open-lab.net/zh-cn/blog/?p=8004
Continued]]>
數據是 AI 系統的生命線,AI 系統依靠可靠的數據集進行學習并做出預測或決策。具體而言,對于感知 AI 模型而言,數據反映真實環境并整合一系列場景至關重要。這包括通常難以收集數據的邊緣用例,例如街頭交通和制造裝配線。 為了啟動和加速計算機視覺模型的訓練,AI 和機器學習 (ML) 工程師可以利用合成數據 (SDG) 來生成大量不同的訓練數據集,以處理視覺檢測、機器人和自動駕駛領域的各種用例。 最新更新的 NVIDIA Omniverse Replicator 是 NVIDIA Omniverse 的核心擴展,基于通用場景描述(OpenUSD)的平臺,開發人員可以構建比以往任何時候都更強大的合成數據生成管道。新功能亮點包括: 借助 Omniverse Replicator,開發者能夠構建用于訓練計算機視覺模型的數據工廠。此外,
Source
]]>
8004
-
為 NVIDIA Jetson 和其他嵌入式系統選擇合適的攝像頭
http://www.open-lab.net/zh-cn/blog/selecting-the-right-camera-for-the-nvidia-jetson-and-other-embedded-systems/
Tue, 12 Sep 2023 10:12:28 +0000
http://www.open-lab.net/zh-cn/blog/?p=7868
Continued]]>
在基于人工智能的嵌入式系統中,攝像頭模塊是最不可或缺的部分。市場上有眾多的相機模塊可供選擇,這可能會讓選擇過程變得困難。這篇文章將幫助你理解如何為嵌入式應用程序做出正確的選擇,包括 NVIDIA Jetson。 相機模塊的選擇涉及三個關鍵方面:傳感器、接口(連接器)和光學。 兩種主要類型的電子圖像傳感器是電荷耦合器件(CCD)和有源像素傳感器(CMOS)。對于 CCD 傳感器,像素值只能按行讀取。每一行像素被一個接一個地移位到讀出寄存器中。對于 CMOS 傳感器,每個像素可以單獨讀取并并行讀取。 在大多數情況下,CMOS 在不犧牲圖像質量的情況下成本較低并且消耗較少的能量。由于像素值的并行讀出,它還可以實現更高的幀速率。然而,在某些特定情況下,CCD 傳感器仍然占主導地位——例如,當需要長時間曝光和需要非常低噪聲的圖像時,例如在天文學中。
Source
]]>
7868
-
利用 OpenUSD 和綜合數據開發智慧城市交通管理系統
http://www.open-lab.net/zh-cn/blog/developing-smart-city-traffic-management-systems-with-openusd-and-synthetic-data/
Tue, 01 Aug 2023 02:50:01 +0000
http://www.open-lab.net/zh-cn/blog/?p=7490
Continued]]>
智能城市代表了城市生活的未來。然而,它們可能會給城市規劃者帶來各種挑戰,尤其是在交通領域。為了取得成功,城市的各個方面——從環境和基礎設施到商業和教育——必須在功能上進行整合。 這可能很困難,因為單獨管理交通流量是一個復雜的問題,充滿了擁堵、事故應急響應和排放等挑戰。 為了應對這些挑戰,開發人員正在開發具有現場可編程性和靈活性的人工智能軟件。這些軟件定義的物聯網解決方案可以應用于實時環境,如交通管理,車牌識別,智能停車和事故檢測等。 盡管如此,建立有效的人工智能模型說起來容易做起來難。遺漏值、重復示例、錯誤標簽和錯誤特征值是訓練數據的常見問題,這些問題可能導致模型不準確。在自動駕駛汽車的情況下,不準確的結果可能是危險的,也可能導致交通系統效率低下或城市規劃不佳。 端到端人工智能工程公司 SmartCow,作為 NVIDIA Metropolis 的合作伙伴,
Source
]]>
7490
-
使用 Vision Transformers 和 NVIDIA TAO 提高視覺 AI 應用程序的準確性和穩健性
http://www.open-lab.net/zh-cn/blog/access-the-latest-in-vision-ai-model-development-workflows-with-nvidia-tao-toolkit-5-0-2/
Tue, 25 Jul 2023 03:27:05 +0000
http://www.open-lab.net/zh-cn/blog/?p=7504
Continued]]>
視覺轉換器( ViT )正在掀起計算機視覺的風暴,為具有挑戰性的現實世界場景提供了令人難以置信的準確性、強大的解決方案,并提高了可推廣性。這些算法在提升計算機視覺應用程序方面發揮著關鍵作用, NVIDIA 使用 NVIDIA TAO Toolkit 和 NVIDIA L4 GPU 可以輕松地將 ViT 集成到您的應用程序中。 ViT 是一種機器學習模型,它將最初為自然語言處理設計的 transformer 架構應用于視覺數據。與基于 CNN 的同類產品相比,它們有幾個優勢,并且能夠對大規模輸入進行并行處理。雖然 CNNs 使用的本地操作缺乏對圖像的全局理解,但 ViT 提供了長期依賴性和全局上下文。他們通過以并行和基于自我關注的方式處理圖像,實現所有圖像補丁之間的交互,從而有效地做到了這一點。 圖 1 顯示了 ViT 模型中圖像的處理,
Source
]]>
7504
-
使用 NVIDIA BlueField DPU 加速 Suricata IDS / IPS
http://www.open-lab.net/zh-cn/blog/accelerating-the-suricata-ids-ips-with-nvidia-bluefield-dpus/
Thu, 04 May 2023 03:41:44 +0000
http://www.open-lab.net/zh-cn/blog/?p=6930
Continued]]>
深度數據包檢測( DPI )是網絡安全的一項關鍵技術,能夠在數據包在網絡中傳輸時對其進行檢測和分析。通過檢查這些數據包的內容, DPI 可以識別潛在的安全威脅,如惡意軟件、病毒和惡意流量,并防止它們滲透到網絡中。然而, DPI 的實現也帶來了對網絡性能的顯著影響。 使用 NVIDIA BlueField DPU 降低了執行深度數據包檢查的成本和性能影響。 Suricata 是一款高性能、開源的網絡分析和威脅檢測應用程序,由私人和公共組織使用,并由主要供應商嵌入以保護資產。使用 Suricata (或任何其他入侵檢測系統和入侵保護系統( IDS / IPS )解決方案)檢查高通量流量需要高 CPU 使用率。因此, CPU 可用性可能會成為一個瓶頸。 數據中心的流量檢查可以是集中式的,也可以是分布式的: 每種方法都有其優點和缺點。分布式檢查更為復雜,
Source
]]>
6930
-
使用 CV-CUDA 提高基于人工智能的計算機視覺的吞吐量并降低成本
http://www.open-lab.net/zh-cn/blog/increasing-throughput-and-reducing-costs-for-computer-vision-with-cv-cuda/
Thu, 04 May 2023 03:41:08 +0000
http://www.open-lab.net/zh-cn/blog/?p=6928
Continued]]>
涉及基于人工智能的實時云規模應用程序計算機視覺正在迅速增長。用例包括圖像理解、內容創建、內容審核、映射、推薦系統和視頻會議。 然而,由于對處理復雜性的需求增加,這些工作負載的計算成本也在增長。從靜止圖像到視頻的轉變現在也正在成為消費者互聯網流量的主要組成部分。鑒于這些趨勢,迫切需要構建高性能但具有成本效益的計算機視覺工作負載。 基于人工智能的計算機視覺管道通常涉及圍繞人工智能推理模型的數據預處理和后處理步驟,這可能占整個工作負載的 50-80% 。這些步驟中常見的運算符包括以下內容: 雖然開發人員可能會使用 NVIDIA GPU 來顯著加速他們管道中的人工智能模型推理,但預處理和后處理仍然通常使用基于 CPU 的庫來實現。這導致整個人工智能管道的性能出現瓶頸。通常是人工智能圖像或視頻處理管道一部分的解碼和編碼過程也可能在 CPU 上受到瓶頸,影響整體性能。
Source
]]>
6928
人人超碰97caoporen国产