TECH MoEとは何か ─ 速い・安いだけじゃない|大規模言語モデル時代に起きる推論摩擦と選び方 MoE(Mixture of Experts)とは何か。速さやコストだけでは語れない、推論の揺れや判断の弱体化といった摩擦を構造から解説し、Denseモデルとの現実的な選び方を整理する。 2025.12.23 TECH