graph neural networks – NVIDIA 技術ブログ http://www.open-lab.net/ja-jp/blog Wed, 10 Apr 2024 03:13:13 +0000 ja hourly 1 LLM アーキテクチャにおける Mixture of Experts の適用 http://www.open-lab.net/ja-jp/blog/applying-mixture-of-experts-in-llm-architectures/ Thu, 14 Mar 2024 02:16:40 +0000 http://www.open-lab.net/ja-jp/blog/?p=2361 Reading Time: 4 minutes Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と Mistral Mixtral 8x7B のオープン ソース リリースによりコミュニ … Continued]]> Reading Time: 4 minutes Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と Mistral Mixtral 8x7B のオープン ソース リリースによりコミュニティ モデルの両方で最近登場しました。Mixtral モデルの強力な相対的性能は、MoE を LLM アーキテクチャでどのように使用できるのか、多くの関心と疑問を引き起こしました。では、MoE とは何であり、なぜそれが重要なのでしょうか? Mixture of Experts は、レイヤーまたは演算 (線形レイヤー、MLP、注意投影など) の計算を複數の「エキスパート」サブネットワークに分割するニューラル ネットワークのアーキテクチャ パターンです。こうしたサブネットワークはそれぞれの計算を獨立して実行し、

Source

]]>
2361
グラフ ニューラル ネットワークによる物理を考慮した機械學習モデルの開発 http://www.open-lab.net/ja-jp/blog/develop-physics-informed-machine-learning-models-with-graph-neural-networks/ Tue, 06 Jun 2023 05:41:00 +0000 http://www.open-lab.net/ja-jp/blog/?p=1827 Reading Time: 2 minutes NVIDIA PhysicsNeMo は、物理を考慮した機械學習 (physics-ML) モデルとして知られる物理的システムのディープラーニング モデルの構築、トレーニング、ファインチューニングを行うためのフレームワー … Continued]]> Reading Time: 2 minutes NVIDIA PhysicsNeMo は、物理を考慮した機械學習 (physics-ML) モデルとして知られる物理的システムのディープラーニング モデルの構築、トレーニング、ファインチューニングを行うためのフレームワークです。PhysicsNeMo は OSS (Apache 2.0 ライセンス) として提供され、成長する physics-ML コミュニティをサポートしています。 PhysicsNeMo の最新ソフトウェア アップデートであるバージョン 23.05 は、新機能をまとめ、研究コミュニティと産業界がオープン ソースのコラボレーションを通じて研究をエンタープライズ品質のソリューションに発展させることを可能にします。 今回のアップデートでは、1) グラフ ニューラル ネットワーク (GNN) やリカレント…

Source

]]>
1827
人人超碰97caoporen国产