Concepts
Concept

Mixture of Experts (MoE)

Mixture of Experts, c'est une façon intelligente de construire une IA très puissante sans qu'elle soit trop lente. Au lieu d'un seul gros cerveau qui fait tout, le modèle a plusieurs "experts" spécialisés et un aiguilleur qui choisit les bons experts pour chaque question. Résultat : le modèle a énormément de connaissances au total, mais n'utilise qu'une petite partie de ses capacités à chaque instant, ce qui le rend rapide et économique.