擴散模型 – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Thu, 18 Jul 2024 06:24:48 +0000
zh-CN
hourly
1
196178272 -
了解 Stable Diffusion 模型:面向 AEC 專業人員的基本指南
http://www.open-lab.net/zh-cn/blog/understanding-diffusion-models-an-essential-guide-for-aec-professionals/
Wed, 10 Jul 2024 06:20:11 +0000
http://www.open-lab.net/zh-cn/blog/?p=10585
Continued]]>
生成式 AI、算法處理各種類型的輸入—例如文本、圖像、音頻、視頻和代碼—并生成新內容的能力正在以前所未有的速度發展。雖然這項技術在多個行業都取得了重大進展,但建筑、工程和施工 (AEC) 行業將從中受益匪淺。 歷史上,AEC 公司一直在與支離破碎的數據系統作斗爭。這導致各個部門或項目階段的重要信息被隔離,從而導致效率低下、解釋錯誤和增加項目成本。隨著 生成式 AI 的出現,AEC 行業正處于轉型的邊緣。 這項前沿技術通過集成數據、自動執行設計任務和增強協作,有可能徹底改變 AEC 行業,從而打造更高效、更創新和更可持續的項目。 自推出生成式 AI 以來,GPT-4 等大型語言模型 (LLM) 一直處于前沿,以其在自然語言處理、機器翻譯和內容創建方面的通用性而聞名。除此之外,OpenAI 的 DALL-E、Google 的 Imagen、
Source
]]>
10585
-
重新思考如何訓練 Diffusion 模型
http://www.open-lab.net/zh-cn/blog/rethinking-how-to-train-diffusion-models/
Thu, 21 Mar 2024 09:46:57 +0000
http://www.open-lab.net/zh-cn/blog/?p=9503
Continued]]>
在探索了擴散模型采樣、參數化和訓練的基礎知識之后,我們的團隊開始研究這些網絡架構的內部結構。請參考 生成式 AI 研究聚焦:揭開基于擴散的模型的神秘面紗 了解更多詳情。 結果證明這是一項令人沮喪的練習。任何直接改進這些模型的嘗試都會使結果更加糟糕。它們似乎處于微妙、微調、高性能的狀態,任何更改都會破壞平衡。雖然通過徹底重新調整超參數可以實現好處,但下一組改進將需要重新經歷整個過程。 如果您熟悉這種繁瑣的開發循環,但您不直接使用擴散,請繼續閱讀。我們的研究結果針對大多數神經網絡及其訓練背后的普遍問題和組件。 我們決定打破這個循環,回顧一下基礎知識。為什么架構如此易碎?網絡中是否存在破壞訓練進程的未知現象?我們如何使其更加穩健?歸根結底:由于這些問題,我們目前還剩下多少性能? 我們最近的論文 分析和改進擴散模型的訓練動力學 中報告了我們的研究結果和細節。
Source
]]>
9503
-
生成人工智能研究為創作者提供引導式圖像結構控制
http://www.open-lab.net/zh-cn/blog/generative-ai-research-empowers-creators-with-guided-image-structure-control/
Wed, 14 Jun 2023 05:15:26 +0000
http://www.open-lab.net/zh-cn/blog/?p=7212
Continued]]>
新的研究正在提升人工智能的創造力,通過文本引導的圖像編輯工具。這項研究提出了一種使用即插即用擴散特征(PnP-DF)的框架,可以指導真實和精確的圖像生成。視覺內容創作者可以通過一個提示圖像和幾個描述性單詞,將圖像轉換為視覺效果。 可靠而輕松地編輯和生成內容的能力有可能擴大藝術家、設計師和創作者的創作可能性。它還可以加強依賴動畫、視覺設計和圖像編輯的行業。 “最近的文本到圖像生成模型標志著數字內容創作進入了一個新時代。然而,將它們應用于現實世界應用程序的主要挑戰是缺乏用戶可控性,這在很大程度上被限制為僅通過輸入文本來指導生成。我們的工作是為用戶提供對圖像布局控制的首批方法之一,” Narek Tumanyan 說,魏茨曼科學研究所的主要作者和博士候選人。 最近在生成人工智能方面的突破為開發強大的文本到圖像模型開辟了新的途徑。然而,復雜性、
Source
]]>
7212
-
大型語言模型簡介:提示工程和 P 調優
http://www.open-lab.net/zh-cn/blog/an-introduction-to-large-language-models-prompt-engineering-and-p-tuning/
Sun, 23 Apr 2023 04:54:48 +0000
http://www.open-lab.net/zh-cn/blog/?p=6778
Continued]]>
ChatGPT 給人留下了深刻印象。用戶很樂意使用人工智能聊天機器人提問、寫詩、塑造互動角色、充當個人助理等等。大語言模型( LLM )為 ChatGPT 供電,這些模型就是本文的主題 在更仔細地考慮 LLM 之前,我們首先想確定語言模型的作用。語言模型給出了一個單詞在單詞序列中有效的概率分布。從本質上講,語言模型的工作是預測哪個詞最適合一個句子。圖 1 提供了一個示例。 雖然像 BERT 這樣的語言模型已經被有效地用于處理文本分類等許多下游任務,但已經觀察到,隨著這些模型規模的增加,某些額外的能力也會出現 這種規模的增加通常伴隨著以下三個維度的相應增加:參數的數量、訓練數據和訓練模型所需的計算資源。有關詳細信息,請參閱Emergent Abilities of Large Language Models. LLM 是一種深度學習模型,可以使用大型數據集識別、
Source
]]>
6778
人人超碰97caoporen国产