Abstract:
Ce mémoire traite de l'explicabilité des réseaux de neurones appliqués à l'imagerie
médicale. Face à la complexité croissante des modèles dits "boîtes noires", l'interprétation
de leurs décisions devient un enjeu crucial, notamment dans les domaines sensibles comme
la santé.
Dans une première partie, nous introduisons les fondements des réseaux de neurones
profonds, en insistant sur leur architecture, leurs performances, mais aussi leurs limites.
Une attention particulière est portée sur les risques d'overfitting, les stratégies de régularisation, et l'importance des métriques d'évaluation dans un contexte médical.
La deuxième partie est consacrée aux méthodes d'explicabilité. Nous distinguons les
approches locales et globales, visuelles et non visuelles, en détaillant des techniques telles
que Saliency Maps, Integrated Gradients, Grad-CAM, SHAP, LIME, ou encore les modèles
substituts. Chaque méthode est replacée dans un cadre théorique rigoureux et illustrée à
travers des cas concrets.
Enfin, une troisième partie propose une application pratique sur plusieurs jeux de
données médicaux, notamment DermaMNIST, BreastMNIST, Breast Cancer Wisconsin,
Pima Indians Diabetes et Cleveland Heart Disease. Nous y analysons l'apport réel des
méthodes explicatives pour le praticien, en comparant les visualisations générées, leur
lisibilité, et leur pertinence clinique.
Ce travail vise ainsi à concilier la performance des modèles de deep learning avec une
exigence de transparence, essentielle dans le domaine médical.