Abstract:
Dans un contexte où les modèles de machine learning deviennent de
plus en plus complexes, la question de leur interprétabilité est devenue
centrale. Ce mémoire propose une exploration des approches d'explication des modèles d'apprentissage automatique. Après une présentation
des fondements théoriques de la science des données et des typologies
de l'apprentissage automatique, nous mettons en œuvre des modèles de
prédiction appliqués à un cas industriel réel. Des algorithmes comme Random Forest et LSTM ont été utilisés pour modéliser les données, tandis
que les techniques d'interprétation ont permis de comprendre l'impact des
variables sur les prédictions. Les résultats montrent que l'intégration de
méthodes d'explicabilité améliore significativement la compréhension des
modèles, sans compromettre leur performance.