MoE

TECH

MoEとは何か ─ 速い・安いだけじゃない|大規模言語モデル時代に起きる推論摩擦と選び方

MoE(Mixture of Experts)とは何か。速さやコストだけでは語れない、推論の揺れや判断の弱体化といった摩擦を構造から解説し、Denseモデルとの現実的な選び方を整理する。
TECH

NVIDIA Nemotron3 はなぜ“nano”なのに24GBもあるのか

NVIDIAのオープンモデル「Nemotron3」は、なぜ“nano”と呼ばれながら24GBもの容量を持つのか。MoE(Mixture of Experts)という設計思想と、Denseモデルを選ばなかった理由から、NVIDIAのAI戦略と時代背景を読み解く。