La méthode des moments (MoM) est devenue récemment une alternative intéressante aux approches itératives standards comme Expectation Maximization (EM) pour apprendre des modèles à variables latentes. Les algorithmes issues de la MoM viennent avec des garanties de convergence vers l'optimum sous la forme de bornes de concentration en échantillons finis. Toutefois, avec du temps de calcul et en utilisant heuristiques pour éviter les optima locaux, les approches itératives obtiennent souvent de meilleures performances. Nous pensons que cet écart de performance est en partie dû au fait que les algorithmes basés sur la MoM peuvent apprendre des modèles générant des probabilités négatives. En limitant l'espace de recherche, nous proposons un algorithme spectral non-négatif (NNSpectral) en évitant de fait l'apprentissage de probabilités négatives. NNSpectral est comparé à d'autres algorithmes basés sur la MoM et EM sur des problèmes artificiels du défi PAutomaC. Non seulement, NNSpectral surpasse les autres algorithmes basés sur la MoM, mais aussi, d'obtenir des résultats très compétitifs par rapport à EM.
- Autre