graph neural networks – NVIDIA 技術ブログ
http://www.open-lab.net/ja-jp/blog
Wed, 10 Apr 2024 03:13:13 +0000
ja
hourly
1
-
LLM アーキテクチャにおける Mixture of Experts の適用
http://www.open-lab.net/ja-jp/blog/applying-mixture-of-experts-in-llm-architectures/
Thu, 14 Mar 2024 02:16:40 +0000
http://www.open-lab.net/ja-jp/blog/?p=2361
Reading Time: 4 minutes Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と Mistral Mixtral 8x7B のオープン ソース リリースによりコミュニ … Continued]]>
Reading Time: 4 minutes Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と Mistral Mixtral 8x7B のオープン ソース リリースによりコミュニティ モデルの両方で最近登場しました。Mixtral モデルの強力な相対的性能は、MoE を LLM アーキテクチャでどのように使用できるのか、多くの関心と疑問を引き起こしました。では、MoE とは何であり、なぜそれが重要なのでしょうか? Mixture of Experts は、レイヤーまたは演算 (線形レイヤー、MLP、注意投影など) の計算を複數の「エキスパート」サブネットワークに分割するニューラル ネットワークのアーキテクチャ パターンです。こうしたサブネットワークはそれぞれの計算を獨立して実行し、
Source
]]>
2361
-
グラフ ニューラル ネットワークによる物理を考慮した機械學習モデルの開発
http://www.open-lab.net/ja-jp/blog/develop-physics-informed-machine-learning-models-with-graph-neural-networks/
Tue, 06 Jun 2023 05:41:00 +0000
http://www.open-lab.net/ja-jp/blog/?p=1827
Reading Time: 2 minutes NVIDIA PhysicsNeMo は、物理を考慮した機械學習 (physics-ML) モデルとして知られる物理的システムのディープラーニング モデルの構築、トレーニング、ファインチューニングを行うためのフレームワー … Continued]]>
Reading Time: 2 minutes NVIDIA PhysicsNeMo は、物理を考慮した機械學習 (physics-ML) モデルとして知られる物理的システムのディープラーニング モデルの構築、トレーニング、ファインチューニングを行うためのフレームワークです。PhysicsNeMo は OSS (Apache 2.0 ライセンス) として提供され、成長する physics-ML コミュニティをサポートしています。 PhysicsNeMo の最新ソフトウェア アップデートであるバージョン 23.05 は、新機能をまとめ、研究コミュニティと産業界がオープン ソースのコラボレーションを通じて研究をエンタープライズ品質のソリューションに発展させることを可能にします。 今回のアップデートでは、1) グラフ ニューラル ネットワーク (GNN) やリカレント…
Source
]]>
1827
人人超碰97caoporen国产