Transformers

2024年 1月 29日
使用全卷積網絡在 Transformer 模型中模擬注意力機制
在過去十年中,深度學習技術在計算機視覺 (CV) 任務中的應用大幅增加。卷積神經網絡 (CNN) 一直是這場革命的基石,展示了卓越的性能,
3 MIN READ

2023年 11月 17日
掌握 LLM 技術:推理優化
通過堆疊 Transformer 層來創建大型模型,可以提高準確性、實現少量學習功能,并且在各種語言任務中實現近乎人類的性能。
4 MIN READ

2023年 7月 25日
使用 Vision Transformers 和 NVIDIA TAO 提高視覺 AI 應用程序的準確性和穩健性
視覺轉換器( ViT )正在掀起計算機視覺的風暴,為具有挑戰性的現實世界場景提供了令人難以置信的準確性、強大的解決方案,并提高了可推廣性。
2 MIN READ

2023年 5月 15日
使用 Alpa 和 Ray 在大型 GPU 集群中高效擴展 LLM 訓練
近年來,大型語言模型( LLM )的數量激增,它們超越了傳統的語言任務,擴展到生成式人工智能這包括像 ChatGPT 和 Stable…
4 MIN READ

2023年 2月 1日
NVIDIA Hopper GPU 上的新 cuBLAS 12.0 功能和矩陣乘法性能
NVIDIA H100 TensorCore GPU 基于 NVIDIA Hopper 架構 和第四代 NVIDIA Tensor…
5 MIN READ

2022年 9月 12日
結合卷積和注意機制改進日語 ASR
自動語音識別( ASR )研究通常側重于高資源語言,如英語,它由數十萬小時的語音支持。最近的文獻重新關注更復雜的語言,如日語。
1 MIN READ

2022年 8月 3日
使用 FasterTransformer 和 Triton 推理服務器加速大型?Transformer?模型的推理
這是討論 NVIDIA FasterTransformer 庫的兩部分系列的第一部分,
3 MIN READ

2022年 8月 3日
使用 FasterTransformer 和 Triton 推理服務器部署 GPT-J 和 T5
這是關于 NVIDIA 工具的兩部分系列的第二部分,這些工具允許您運行大型Transformer模型以加速推理。
5 MIN READ

2022年 7月 27日
為醫療保健開發 NLP 應用程序
自然語言處理( NLP )可以定義為人工智能( AI )、計算機科學和計算語言學的結合,以理解人類交流并從非結構化口語或書面材料中提取意義。
1 MIN READ

2022年 7月 12日
采用 P-Tuning 解決非英語下游任務
隨著對預訓練大型語言模型( LLM )權重訪問需求的增加,圍繞 LLM 共享的環境正在發生變化。最近,
3 MIN READ

2022年 6月 28日
Transformers4Rec :使用 NVIDIA Merlin 庫構建基于會話的建議
推薦系統可以幫助您發現新產品并做出明智的決策。然而,在許多依賴于推薦的領域,如電子商務、新聞和流媒體服務,用戶可能無法跟蹤,
3 MIN READ

2022年 6月 22日
新型 transformer 模型實現了 3D 醫學圖像分析的最新基準
在計算機視覺和模式識別會議( CVPR )上, NVIDIA 研究人員發表了 35 多篇論文。
2 MIN READ

2022年 5月 12日
使用 Transformers 生成合成數據:企業數據挑戰的解決方案
大數據、新算法和快速計算是使現代 AI 革命成為可能的三個主要因素。然而,數據給企業帶來了許多挑戰:數據標記困難、數據治理效率低下、
2 MIN READ

2021年 11月 9日
使用 NVIDIA Clara Holoscan 加速放射和放射治療的多器官渲染
觀看 NVIDIA 創始人兼首席執行官 Jensen Huang’s GTC keynote address11 月 9 日和重播時播放。
5 MIN READ