ETUDE INTERNE
AUTEURS : ERNESTO LOPEZ FUNE, VALENTIN MESSINA, AMANDE EDO
Le développement de l’intelligence artificielle (IA) soulève des enjeux majeurs d’explicabilité des modèles de machine learning (ML). Ce benchmark explore les méthodes de mesure de l’importance des variables dans les modèles supervisés, en utilisant l’analyse de corrélation avec des techniques post-hoc comme les valeurs de Shapley et LIME. Nous démontrons que l’approche combinée d’analyse de corrélation et de mesures d’importance des variables permet de mieux comprendre et valider les prédictions des modèles complexes. Les packages Eli5, SHAP, et LIME sont utilisés pour illustrer ces méthodes, en mettant en lumière leurs avantages et limites face aux variables explicatives corrélées entre elles.