• <xmp id="om0om">
  • <table id="om0om"><noscript id="om0om"></noscript></table>
  • 生成式人工智能/大語言模型

    AEC 檢索增強生成技術指南

    大語言模型 (LLMs) 正在迅速改變業務格局,為自然語言處理 (NLP)、內容生成和數據分析提供新功能。這些 AI 驅動的工具改善了公司的運營方式,從簡化客戶服務到增強決策流程。

    然而,盡管 LLM 擁有令人印象深刻的一般知識,但其準確性、最新信息和特定領域的知識卻常常捉見肘。這可能會導致建筑、施工和工程 (AEC) 等專業領域出現潛在的錯誤信息和過度簡化,而準確的最新信息對于做出明智決策和確保遵守行業法規至關重要。

    想象一下,一個由建筑師和工程師組成的設計團隊會使用 LLM 提出山中房屋的構思。當被問及是否采用適合當地氣候的可持續建筑技術時,LLM 可能會提供有關使用太陽能板和綠色屋頂的通用回答,而無需考慮高海拔環境的特定挑戰,例如極端溫度波動和潛在的雪載。在問題更嚴重的情況下,LLM 可能會產生幻覺,并建議使用“太陽能融雪板”— — 這項技術聽起來很創新,但根本不存在。

    此示例顯示了 LLM 的常見問題。他們擁有豐富的知識,但通常不具備特定任務所需的最新信息。這一限制源于一些內在挑戰。具體來說,LLM 根據特定截止日期之前的可用數據進行訓練,并且無法訪問專有或實時業務數據。LLM 有時還會曲解查詢背后的上下文或意圖,從而導致不相關或模棱兩可的響應。

    為了解決這些限制,公司通常有三種選擇:

    1. 重新訓練整個模型: 這涉及在包含特定領域信息的數據集上完全重新訓練 LLM 。然而,此過程需要大量資源,需要大量數據、強大的計算能力和大量的時間投資,因此對大多數組織來說都不切實際。
    2. 微調模型: 這種方法通過在較小的專業數據集上進一步訓練預訓練模型,使其適應特定領域。微調雖然不如完全重新訓練密集,但仍需要大量的計算資源和專業知識。它可以有效,但仍可能難以處理非常具體或快速變化的信息。
    3. 使用檢索增強生成 (RAG): RAG 是針對 LLM 限制的高效靈活的解決方案,它將 LLM 的廣泛功能與檢索和整合精選知識庫中特定的最新信息的能力相結合。這種方法使公司能夠利用 LLM 的強大功能,同時確保特定領域應用的準確性和相關性。

    對于希望使用高級語言模型,同時降低風險和限制的企業,RAG 為其指明了前進方向。

    本文探討了為什么 RAG 代表 AEC 行業的變革性進步,以及為什么領先的組織選擇開發 RAG 系統來提高其業務價值。

    什么是檢索增強型生成?

    RAG 是一種先進的 AI 技術,將語言模型的功能與實時信息檢索相結合,使系統能夠訪問和使用來自定義來源的特定上下文相關數據,以提高生成的響應的準確性和相關性。這是一種增強企業領域 AI 能力的強大方法。

    要使 LLM 真正解決業務問題,它們需要與每個組織擁有的獨特知識體系相協調。借助 RAG,AI 系統能夠在生成響應之前訪問和檢索來自定義來源的實時信息,例如公司內部知識系統、數據存儲,甚至是其他 SaaS 應用 (例如 CRM 和 ERP)。

    這意味著,例如,當員工提出問題或尋求信息時,使用 RAG 的 AI 助手會理解上下文:公司的歷史項目數據、當前項目詳細信息、供應鏈信息和其他專有組織知識,從而提供量身定制的準確響應。

    考慮 AECOM BidAI 計劃,該計劃利用 LLM 和 RAG 來改進其投標撰寫流程。經過通用知識訓練的 LLM 可能會廣泛解釋投標撰寫策略,但這不足以滿足 AECOM 為大型施工項目制定復雜、量身定制的計劃的特定需求。

    A screenshot of AECOM BidAI in action.
    圖 1、圖片由 AECOM 提供,展示了 BidAI,這是一種支持開發草稿投標的生成式 AI 工具

    這正是 RAG 變得至關重要的地方。它使 BidAI 等 AI 系統能夠從定義的來源訪問和檢索實時信息,包括 AECOM 的龐大資源庫,其中包含 30000 多個索引構件,例如過去的提案、項目數據表和簡歷。當 AECOM 員工需要起草投標時,使用 RAG 的 AI 助手能夠理解上下文:公司的歷史項目數據、當前項目詳細信息以及其他專有組織知識。

    借助此系統,該系統可以提供量身定制、準確且有根據的協助,將投標起草時間從 10 天顯著縮短到僅 2 天。通過將 GPT 基礎模型與 RAG 向量搜索相結合,AECOM 創建了一個強大的知識平臺,可普及組織專業知識,并顯著提高投標和其他業務領域的效率。

    通過彌合龐大的通用 AI 模型與特定的最新組織知識之間的差距,RAG 將自己定位為在商業環境中實際應用大型語言模型(LLMs) 的關鍵推動者。

    在 AEC 行業中利用 RAG?

    將 RAG 與運營數據集成可以顯著增強生成式 AI 的潛力,從而在整個企業應用中提供實時、高度個性化且上下文相關的體驗。

    基于 RAG 的 LLM 解決方案通過提供可用于設計文檔檢索、合規性檢查、項目管理、成本估算、知識管理和客戶支持的智能工作場所助手,正在改變 AEC 行業。這些基于 RAG 的 AI 工具具有以下顯著優勢:

    • 提高準確性: 通過以當前行業特定信息為基礎的響應,建筑師和工程師能夠高效訪問基本的項目規格,從而減少錯誤和幻境。
    • 專業知識訪問:在安全的地方使用自己的數據,為您提供符合公司實踐和規則的個性化答案。分析過去的項目,以獲得定制的設計建議和切實可行的見解,同時保護敏感信息并確保僅限授權用戶訪問。
    • 監管合規性 :確保遵守各種標準 (包括市政建筑規范、行業安全指南和環境法規),并生成定制的客戶提案以保持公司競爭力。
    • 可追蹤性和效率: 用戶可以將 AI 生成的內容追溯到其來源,從而增強信任和問責。通過專注于相關數據,RAG 減少了對大量模型重新訓練的需求,從而節省時間和資源。

    RAG 的核心組件?

    實施 RAG 需要仔細考慮數據管理、模型選擇以及與現有工作流程的集成。該工作流由多個協同工作的關鍵組件組成,可增強 LLM 的功能。這些組件可大致分為數據提取、數據檢索、數據生成和持續改進流程。

    數據提取?

    第一階段是數據提取,收集來自數據庫、文檔或云存儲等各種來源的原始數據,并準備進行處理。此步驟對于確保系統能夠訪問全面和相關的信息至關重要。 RAPIDS 可以通過提供 GPU 加速的數據預處理功能來加速這一階段,確保高效提取大量數據。

    嵌入生成?

    接下來是嵌入生成階段,提取的數據將轉換為向量嵌入,以捕獲文本的語義含義。在這里,嵌入模型的工作原理就像翻譯一樣,將項目文檔、建筑代碼或設計規格中的文本塊轉換為名為“向量嵌入”的特殊格式。這些嵌入捕獲文本的含義和上下文,而不僅僅是確切的詞語。

    例如,嵌入模型可以理解“steel beam”和“I-beam”是相關概念,即使它們不共享相同的單詞。 NVIDIA NeMo Retriever 是一系列用于信息檢索的微服務,可提供專為問答和信息檢索等任務而設計的強大嵌入模型。這些嵌入對于實現準確的上下文感知信息檢索至關重要。

    The image showcases the integration of multimodal inputs being processed by neural networks that enhance RAG system outputs.
    圖 2、通過 LLM 處理多模態輸入,增強 RAG 系統輸出

    存儲和檢索嵌入?

    第三階段是使用向量數據庫存儲和檢索這些嵌入,并將其視為智能知識庫。

    生成響應?

    最后,響應生成階段需要使用 LLM 根據從向量數據庫檢索到的信息生成答案。NVIDIA GPU 可加速 LLM 的推理過程,從而更快、更高效地實時生成響應。為了進一步優化性能, NVIDIA Triton 推理服務器 管理這些模型的部署,確保它們以最高效率運行。Triton 在處理推理請求和模型設置時,能夠降低延遲并最大限度地利用資源。這使其成為實時 AI 應用的理想之選。

    示例用例?

    要理解這些概念,可以考慮一位需要確保遵守與消防安全相關的當地建筑規范的建筑師。建筑師詢問高層建筑的消防安全要求。在 RAG 工作流程的第一步中,建筑師的問題由嵌入模型處理。此模型將問題轉換為向量嵌入,并捕獲其語義含義。該模型理解,這個問題與消防安全要求和高層建筑有關。

    接下來,使用問題的向量嵌入來搜索向量數據庫,該數據庫包含各種文檔的嵌入,包括當地建筑規范、設計指南和過去的項目文檔。NVIDIA RTX GPUs 在加速搜索過程中發揮著至關重要的作用,使系統能夠快速找到與火災安全和高層建筑相關的最相關文檔。

    Diagram of RAG architecture showing a user query processed by an embedding model, retrieving data from a vector database, and generating an enhanced response with an LLM.
    圖 3、高級 RAG 架構

    檢索相關文檔后,系統會提取有關消防安全要求的關鍵信息。其中可能包括特定法規、合規性檢查清單以及過去遵守這些標準的項目示例。然后,系統會進入響應生成階段,在此階段,LLM 會合成檢索到的信息,為建筑師的查詢創建全面的答案,包括必須遵循的任何特定代碼或標準。

    構建您自己的 RAG 工作流?

    AEC 公司可以使用 NVIDIA ChatRTX 開始使用 RAG。此演示應用可作為一種簡便的實驗工具,供個人用戶使用自己的內容 (如文檔、筆記和圖像) 個性化 GPT 語言模型 (LLM),以創建本地運行的聊天機器人或虛擬助理,從而感知上下文。用戶可以快速檢索有關設計先例、建筑法規要求和項目更新的信息,同時確保敏感信息在本地 RTX PC 或工作站上保持安全。

    NVIDIA AI Workbench 提供了一個強大的環境,可幫助開發者和數據科學家更好地控制和定制復雜的 AI 應用,并與之進行協作,例如 AI Workbench Hybrid RAG 項目 。開發者可以與從設計文檔到項目規格的各種文檔進行交流,從而創建可增強信息檢索和決策制定的連貫一致的系統。此平臺的靈活性允許在各種環境 (無論是本地工作站、服務器還是云端) 中進行部署,從而確保解決方案能夠擴展并適應可用的基礎設施。

    GIF of a chatbot built using NVIDIA AI Workbench Hybrid RAG Project.
    圖 5、使用 NVIDIA AI Workbench 的 RAG 聊天機器人

    雖然 AI Workbench 提供全面的開發環境,但 NVIDIA 還推出了 NVIDIA NIM 來簡化 AI 模型的部署。NIM 微服務將經過優化的推理引擎、行業標準 APIs 以及對 AI 模型的支持打包到容器中,以便輕松部署。NIM 對 RAG 部署特別有益,因為它們集成了 NVIDIA NeMo Retriever 微服務,可優化 RAG 應用的數據檢索。

    NVIDIA AI 藍圖 為開發者在創建使用一個或多個 AI 代理的 AI 應用時提供了一個飛躍。這些經過預訓練的可定制 AI 工作流可跨各種用例加速生成式 AI 應用的開發和部署。

    其中包括使用 NVIDIA NeMo、NVIDIA NIM 和合作伙伴微服務構建的示例應用、參考代碼、自定義文檔和用于部署的 Helm 圖表。

    Image showcasing NVIDIA AI Blueprints for canonical generative AI use cases like multimodal PDF data extraction.
    圖 6、NVIDIA AI 藍圖是用于快速企業部署的預構建參考工作流

    對于 AEC 公司而言, NVIDIA AI Blueprint 用于多模態 PDF 數據提取尤為重要 ,因為它利用 NVIDIA NeMo Retriever NIM 微服務 來處理包含文本和圖像的復雜 PDF 文檔。借助此藍圖,AEC 公司能夠利用其龐大的內部設計和規范數據庫,使團隊能夠比以往更智能、更快速地訪問和利用這些信息。AI Blueprints 免費提供給開發者體驗和下載,并可借助 NVIDIA AI Enterprise 軟件平臺 在生產環境中進行部署。

    結束語?

    隨著 AEC 行業不斷數字化并采用 AI 技術,RAG 脫穎而出,成為開始使用 AI 的最簡單方法之一。這種實用方法使公司能夠利用生成式 AI 的強大功能,同時保持在此領域至關重要的準確性和相關性。AECOM 認識到生成式 AI 和基于 RAG 的解決方案將對未來工作產生深遠影響,他們對這項技術的承諾體現在旨在民主化知識和增強客戶服務的持續舉措中。

    AECOM 全球 AI 主管 Tim Wark 表示:“生成式 AI 無疑將加速改變我們的工作方式,并繼續改進我們為客戶提供價值的方式。“我們圍繞 RAG 和 LLMs 的早期計劃顯示出了巨大的潛力,即普及我們的全球知識庫,并在此基礎上為客戶提供更深入的見解。這些都是我們整個行業激動人心的變革時代的開端。”

    通過彌合龐大的語言模型與特定行業知識之間的差距,RAG 準備改變 AEC 專業人員在日常運營中與 AI 交互和使用 AI 的方式。這一轉型是行業大趨勢的一部分,80.5% 的 AEC 專業人員計劃使用包括 AI 在內的數字工具,反映出他們已做好迎接數字化轉型及其帶來的優勢的準備。

    詳細了解 AI 如何改變 AEC 行業。

    ?

    0

    標簽

    人人超碰97caoporen国产