]]>12929如何使用 NVIDIA NeMo Guardrails 為客戶服務保護 AI 智能體
http://www.open-lab.net/zh-cn/blog/how-to-safeguard-ai-agents-for-customer-service-with-nvidia-nemo-guardrails/
Thu, 16 Jan 2025 06:23:28 +0000http://www.open-lab.net/zh-cn/blog/?p=12699Continued]]>AI 代理為 企業擴展和提升客戶服務以及支持交互提供了重要機會。這些客服人員可自動處理日常查詢并縮短響應時間,從而提高效率和客戶滿意度,幫助組織保持競爭力。 但是,除了這些優勢之外, AI 智能體也存在風險 。 大語言模型(LLMs) 容易生成不當內容或離題內容,并且容易受到“jailbreak”攻擊。為了充分發揮生成式 AI 在客戶服務中的潛力,實施可靠的 AI 安全措施至關重要。 本教程為 AI 構建者提供了切實可行的步驟,以便將基本的安全措施集成到適用于客戶服務應用的 AI 智能體中。它展示了如何利用 NVIDIA NeMo Guardrails ,一種可擴展的鐵路編排平臺,包括作為 NVIDIA NIM 微服務提供的以下三個新的 AI 保障模型: 通過本教程,您將學習如何部署 AI 智能體,在保持客戶信任和品牌完整性的同時提供快速、準確的響應。
]]>12706NVIDIA Cosmos World 基礎模型平臺助力物理 AI 進步
http://www.open-lab.net/zh-cn/blog/advancing-physical-ai-with-nvidia-cosmos-world-foundation-model-platform/
Thu, 09 Jan 2025 08:43:45 +0000http://www.open-lab.net/zh-cn/blog/?p=12593Continued]]>隨著機器人和 自動駕駛汽車 的發展,加速 物理 AI 的發展變得至關重要,而物理 AI 使自主機器能夠感知、理解并在現實世界中執行復雜的操作。這些系統的核心是 世界基礎模型 (WFMs),即通過物理感知視頻模擬物理狀態的 AI 模型,使機器能夠做出準確決策并與周圍環境無縫交互。 NVIDIA Cosmos 平臺可幫助開發者大規模為物理 AI 系統構建自定義世界模型。它為從數據管護、訓練到定制的每個開發階段提供開放世界基礎模型和工具。 本文將介紹 Cosmos 及其加速物理 AI 開發的主要功能。Cosmos 是一種開源的 Python 庫,用于加速物理 AI 開發。 構建物理 AI 極具挑戰性,需要精確的模擬以及真實世界的行為理解和預測。克服這些挑戰的一個關鍵工具是世界模型,該模型根據過去的觀察結果和當前的輸入結果預測未來的環境狀態。
]]>12593Llama Nemotron 模型提升智能體 AI 工作流的準確性和效率
http://www.open-lab.net/zh-cn/blog/llama-nemotron-models-accelerate-agentic-ai-workflows-with-accuracy-and-efficiency/
Mon, 06 Jan 2025 08:52:07 +0000http://www.open-lab.net/zh-cn/blog/?p=12596Continued]]>Agentic AI 是新一波生成式 AI 浪潮,是一種范式轉變,通過使 AI 系統能夠自主行動并實現復雜的目標,具有變革行業的潛力。智能體 AI 將 大語言模型 (Large Language Models,LLMs) 的強大功能與高級推理和規劃功能相結合,為醫療健康、金融、制造和物流等各行各業帶來無限可能。 智能體 AI 系統將感知、推理和行動相結合,以有效地與其環境交互。它從數據庫和外部來源收集信息,分析目標并制定實現目標的策略。 系統的操作模塊可執行決策,同時保留過去交互的內存,以支持長期任務和個性化響應。借助多智能體協作,智能體可以共享信息并高效協調復雜的任務。 AI 智能體還配備了反饋機制,可創建 數據飛輪 ,并將通過交互生成的數據輸入到系統中,以增強模型。這使得系統能夠隨著時間的推移提高運營效率并做出更明智的決策。 這些系統的核心是基礎模型,
]]>12587借助 NVIDIA 全棧解決方案提升 AI 推理性能
http://www.open-lab.net/zh-cn/blog/optimize-ai-inference-performance-with-nvidia-full-stack-solutions/
Tue, 24 Dec 2024 05:43:02 +0000http://www.open-lab.net/zh-cn/blog/?p=12923Continued]]>AI 驅動的應用的爆炸式發展對開發者提出了前所未有的要求,他們必須在提供先進的性能與管理運營復雜性和成本以及 AI 基礎設施之間取得平衡。 NVIDIA 正在為開發者提供涵蓋芯片、系統和軟件的全棧創新,重新定義 AI 推理 的可能性,使其比以往更快、更高效、更具可擴展性。 六年前,NVIDIA 著手打造 AI 推理服務器,專為構建高吞吐量、延遲關鍵型生產應用的開發者而設計。當時,許多開發者都在努力使用定制的、特定于框架的服務器,這些服務器增加了復雜性,增加了運營成本,并且難以滿足嚴格的服務水平協議(service-level agreements)關于延遲和吞吐量的要求。 為解決這一問題,NVIDIA 開發了 NVIDIA Triton Inference Server ,這是一個開源平臺,能夠為來自任何 AI 框架的模型提供服務。通過整合特定于框架的推理服務器,