RNTI

MODULAD
Learning Representations Using Causal Invariance
In EGC 2020, vol. RNTI-E-36, pp.5-6
Résumé
Les algorithmes d'apprentissage capturent souvent de fausses corrélations présentes dans la distribution des données d'entraînement au lieu de traiter la tâche qui nous intéresse. De telles corrélations parasites se produisent parce que le processus de collecte de données est soumis à des biais de confusion incontrôlés. Supposons cependant que nous ayons accès à plusieurs ensembles de données illustrant le m concept mais dont les distributions présentent des biais différents. Pouvons-nous apprendre quelque chose de commun à toutes ces distributions, tout en ignorant les fausses façons dont elles diffèrent? Ceci peut être réalisé en projetant les données dans un espace de représentation qui satisfait un critère d'invariance causale. Cette idée diffère de façon importante des travaux antérieurs sur la robustesse statistique ou les objectifs contradictoires. Semblable à des travaux récents sur la sélection des caractéristiques invariantes, il s'agit de découvrir le mécanisme réel sous-jacent aux données au lieu de modéliser ses statistiques superficielles.