Les algorithmes de Machine Learning (ML) sont complexes et souvent difficiles à interpréter.
L’Explicabilité des modèles d’IA devient donc cruciale pour comprendre et faire confiance à leurs prédictions en s’assurant qu’il n’y ait pas de biais ou de mauvaise compréhension de la problématique.
De plus, dans le secteur bancaire l’interprétabilité des modèles de Machine Learning est désormais un enjeu majeur vis-à-vis de la gouvernance interne des modèles et pour répondre aux exigences des régulateurs (IA Act, réglementation de l’Autorité Bancaire Européenne (EBA),…).
Le but de ce stage sera dans un premier temps de réaliser une revue des méthodes d’interprétabilité et d’explicabilité adaptés à notre contexte, puis d’étudier des approches de ML qui soient performantes, tout en étant nativement interprétables. Ces approches seront expérimentées sur des cas d’usage réels.