Abstract:
Ce mémoire montre comment l'explicabilité (XAI) peut rendre les réseaux profonds
utilisés pour le dépistage de la rétinopathie diabétique plus transparents. Trois modèles
fine-tunés AtR5C (CNN), ViR-5C (Vision Transformer) et ReVi-5C (hybride) sont testés sur
la base APTOS. Un ensemble de méthodes XAI répandues (Grad-CAM, Score-CAM, LIME,
SHAP et Attention Rollout) sont comparées à l'aide de quatre métriques reconnues : insertion,
deletion, faithfulness et robustness. Les résultats montrent qu'aucune méthode n'est parfaite
; elles se complètent. Des recommandations simples aident les cliniciens à choisir la bonne
explication et à juger sa fiabilité, condition essentielle pour un usage responsable de l'IA en
ophtalmologie.