NVIDIA 的加速量子超級計算機 愿景是集成量子硬件和 AI 超級計算,將當今的量子處理器轉變為未來有用的量子計算設備。
在 超級計算 2024 (SC24) 上,NVIDIA 宣布了一系列與合作伙伴合作的項目,這些項目旨在推動量子生態系統應對當今技術和加速量子超級計算之間的挑戰。本文重點介紹了這些涵蓋量子硬件、算法和系統集成的項目。
AI 突破滿足量子計算的需求?
生成式 AI 是解決量子計算所面臨挑戰的最具前景的工具之一。NVIDIA 與來自工業界和學術界的科學家合作,發布了新的評論研究論文 《Artificial Intelligence for Quantum Computing》,概述了 AI 將如何改變量子計算(圖 1)。
該論文聚焦于使用 GPT 模型合成量子電路和使用 transformers 解碼 QEC 代碼等主題,調查了在兩個最具變革性的計算領域交叉開展的關鍵工作。

多 QPU、多 GPU、多用戶?
波茲南超級計算和網絡中心 (PSNC) 和 ORCA Computing 宣布了與 NVIDIA 開展量子協作的 AI 成果。該團隊利用 NVIDIA H100 Tensor Core GPU 、 NVIDIA CUDA-Q 平臺和兩臺 ORCA PT-1 光子量子計算機,展示了首款功能齊全的多 QPU、多 GPU、多用戶基礎設施。
CUDA-Q 平臺用于開發和運行具有預訓練 Transformer 的新型資源狀態生成器 (RS-GPT) 算法,該算法利用人工智能改進光子量子處理器的設計。該合作還產生了用于識別人臉圖像的混合量子 – 經典生成式對抗網絡 (GAN) 工作流。另外,開發了用于生物圖像分類的混合量子神經網絡,針對醫學診斷應用。
將量子與經典相結合?
SC24 大會上的許多公告展示了 CUDA-Q 如何繼續與所有量子位模態的量子硬件提供商集成,并使加速量子超級計算更易于使用。
QuEra、Anyon 和 Fermioniq 現已在 CUDA-Q 中提供
量子位無關的 CUDA-Q 開發平臺現已與三個新合作伙伴集成: Anyon (超導 QPU)、 Fermioniq (量子電路模擬器)和 QuEra (中性原子 QPU)。借助 CUDA-Q 量子-經典工作流程,量子開發者現在可以將這些資源無縫地融合到混合算法中。
Quantum Brilliance 與德國超級計算集成
Quantum Brilliance 宣布即將 將其基于鉆石的 QPU 集成到 Fraunhofer Institute for Applied Solid State Physics IAF 現有的超級計算基礎設施中。該系統與 CUDA-Q 兼容,CUDA-Q 可用于在這種新型混合量子經典超級計算系統上開發和測試應用程序。
推進量子硬件設計
CUDA-Q 平臺現在使量子硬件開發者能夠利用 AI 超級計算加速設計流程。
CUDA-Q 0.9 中的動力學模擬?
CUDA-Q 0.9 包括 新的動態模擬功能 ,能夠對量子系統執行高精度和可擴展的動態模擬。這些模擬是 QPU 供應商了解其硬件物理特性并改進量子位設計的關鍵工具。CUDA-Q 中的動力學模擬可以利用內置求解器,現在可以直接在 QuEra 的模擬量子處理器上運行。
助力 Google 構建更好的量子位?
NVIDIA 還與 Google Quantum AI 合作 ,對其 transmon 量子位執行大規模、高精度的量子動力學模擬。這項工作使用 cuQuantum 和 CUDA-Q 中現已提供的新動態 API 執行。如需詳細了解突破性的 40 量子位 Google 模擬數據和其他詳細基準測試,請參閱《 借助新的 Dynamics 功能加速 Google 的 QPU 開發 》。
擴大對下一代算法設計的訪問權限
CUDA-QX 是針對 GPU 加速優化的應用程序特定庫的集合。這些庫為 CUDA-Q 的強大功能提供了更高級別的界面,可簡化研究人員開始探索量子計算領域新一代主題的能力。
CUDA-Q QEC(量子誤差校正)庫提供了一些內置的 QEC 代碼,可用于構建自定義工作流程并測試容錯算法的性能。
CUDA-Q 求解器庫提供了黑盒量子求解器和預處理功能,使得幾乎可以輕松構建像化學模擬這樣的應用程序的模擬,這些應用程序只有利用 GPU 超級計算才能大規模運行。
如需詳細了解每個庫(包括示例應用),請參閱用于加速量子超級計算的 NVIDIA CUDA-QX 庫簡介。
協作開發突破性應用?
NVIDIA 正在與量子生態系統中的專家開發者和研究人員合作。 SC24 上宣布的多項合作亮點包括以下內容。
耶魯大學的量子 Transformer 模型?
耶魯大學和 NVIDIA 正在合作開發一種新型量子 Transformer 模型,以生成具有特定物理化學屬性的新分子。該團隊使用 CUDA-Q 及其 MQPU 后端開發了一種量子 Transformer 模型,該模型可在采用量子電路的 Transformer 中實現注意力機制,從而提供了一種直接在序列建模中捕獲復雜分子相互作用的新方法。CUDA-Q 加速將 epoch 訓練時間從超過一周(在 CPU 上)縮短到僅幾個小時(在一個四 GPU 系統上)(圖 2)。
通過在 Perlmutter 超級計算機上使用多個 QPU 和 NVIDIA A100 GPU,使得第一個使用完整的 QM9 小分子訓練集和批量大小為 256 的量子模型進行訓練的示例成為可能。這使得可以更好地與經典機器學習(ML)模型進行比較,以評估量子 Transformer 模型的可行性。

使用 Moderna 對綁定親和力進行分類?
包括深度神經網絡(DNN)在內的經典機器學習(ML)模型可以有效地從蛋白質序列中識別出結合基序,這些基序對于了解健康和疾病至關重要。然而,隨著這些模型的擴展,訓練變得具有計算挑戰性,限制了它們處理日益復雜的生物數據的能力。
量子神經網絡(QNNs)提供了一種引人注目、準確且高效的替代方案,尋求使用高維計算空間來創建更具表現力的 ML 模型。但訓練此類模型極其困難。
緩解這些困難的一種方法是使用量子極限學習機器(Quantum extreme learning machines,QELMs),該機器由未經訓練的 QNN 與簡單的經典輸出層組成。圖 3 展示了根據 Potential and Limitations of Quantum Extreme Learning Machines 調整的 QELM 模型架構示意圖。

NVIDIA 和 Moderna 正在使用 CUDA-Q 平臺開發 QELM 工作流程,以預測生物分子結合親和力。CUDA-Q 加速模擬能夠利用所需的大量量子位來提高 QELM 測試集的準確性。未來工作將利用新的 CUDA-Q 動態功能測試 QELM 方法在真實噪聲條件下的性能。
借助 Hewlett Packard Enterprise 加速并行電路編
擴展量子應用的一種方法是跨多個處理器并行化量子電路,然后通過稱為 電路編織 的程序合并結果。NVIDIA 正在與 Hewlett Packard Enterprise(HPE)合作,高性能實施基于張量網絡的技術,以提高自適應電路編織的準確性和效率(圖 4)。 HPE 的早期結果 表明,它有望超越現有電路編織方法的采樣效率一到兩個數量級。

借助 Algorithmiq 緩解噪聲的張量網絡
量子誤差緩解后處理噪聲量子計算機的輸出,以改善結果。 NVIDIA 正在與 Algorithmiq 合作 ,加速其張量網絡糾錯(TEM)技術,早期測試表明,與之前的 CPU 實現相比,速度提高了 300 倍。Algorithmiq 計劃在未來幾個月展示加速 TEM 應用,涵蓋材料科學和網絡安全等領域。
量子算法教學?
NVIDIA 正在與亞利桑那州立大學和卡內基梅隆大學合作開發 CUDA-Q 學術課程模塊 。這些模塊將依托先前發布的 Divide and Conquer MaxCut QAOA 和 Quick Start to Quantum Computing 模塊的成功經驗,重點介紹如何利用 GPU 通過 CUDA-Q 加速混合應用。
開始使用?
NVIDIA 正致力于推動量子生態系統向前發展,攜手開展涵蓋人工智能應用的項目,以實現量子計算、量子硬件模擬、混合量子經典應用開發和系統集成。詳細了解 NVIDIA 量子計算 并 下載 CUDA-Q ,開始為您自己的項目試驗加速量子超級計算。
?