RedditのローカルLLM板に以下のようなポストが上がっていました。 "Mixuture Of Experts"という表現は誤解を招きやすい 私も最初は「Mixtral 8x7B」のMixture of Expertsというのは様々な分野で特化学習をした8つのMistralモデルを結合したものだと思ってい…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。