Le rôle clé joué par les métriques en apprentissage automatique a généré ces dernières années un intérêt croissant pour l'optimisation de fonctions de distances et de similarités. Dans cet article, nous traitons le cas où peu de données étiquetées (et potentiellement également peu de données non-étiquetées) sont disponibles, situation qui apparaît fréquemment dans les applications réelles. Nous nous intéressons également aux garanties théoriques de la métrique apprise et du classifieur exploitant celle-ci. Notre approche s'inscrit dans le cadre théorique des fonctions de similarité $(\epsilon, \gamma, \tau)$-bonnes (Balcan et al., 2008) qui a été l'une des premières tentatives destinées à établir un lien entre les propriétés d'une fonction de similarité et le comportement d'un classifieur utilisant cette fonction. Dans cet article, nous étendons cette théorie au cadre où la métrique et le séparateur sont appris conjointement d'une manière semi-supervisée et régularisée. Nous fournissons une analyse théorique de cet apprentissage conjoint en dérivant des bornes basées sur la complexité de Rademacher. L'expérimentation effectuée sur des jeux de données classiques montre les avantages de notre approche par rapport à l'état de l'art.
- Autre