Titre : Redéfinir l’explicabilité : étude de la conception d’une intelligence artificielle explicable en anatomie et cytologie pathologiques
Océane Fiant est post-doctorante à l’UTC et sera à partir d’octobre 2024 maître de conférence à l’Université de Côté d’Azur.
Résumé : La réponse de l’ingénieur au problème de l’opacité des modèles d’apprentissage automatique consiste soit à leur préférer des modèles plus simples (régression linéaire, arbres décisionnels, etc.), mais moins performants, soit à mettre en œuvre des méthodes relevant du champ de l’explainable artificial intelligence (Local Interpretable Model-Agnostic Explanations, Shapley Additive Explanations, etc.). Il s’agit dans ce dernier cas de modèles permettant de parvenir à une explication simplifiée de la manière dont le modèle à expliquer est parvenu à un résultat donné – par exemple, l’importance de telles ou telles variables en entrée dans la formulation du résultat en sortie.
Je présenterai dans mon exposé un cas où le problème de l’opacité est résolu non pas en s’attachant à rendre l’algorithme explicable, mais en faisant porter l’effort sur la construction de son dataset. Il s’agit d’un projet mené par un pathologiste et un ingénieur, dont l’objectif est de construire un dataset d’images de tumeurs cancéreuses du sein, qui servira ultérieurement à entraîner des réseaux de neurones convolutifs à détecter les composants de la tumeur sur des lames entières en coloration standard. Le but de mon exposé est d’examiner la solution déployée dans le cadre de ce projet et d’en tirer des conclusions générales concernant le problème de l’opacité des algorithmes d’apprentissage automatique.