Ερμηνεύσιμα μοντέλα βαθιάς μάθησης για την αναγνώριση εικόνας: συγκριτική μελέτη τεχνικών επεξηγήσιμης τεχνητής νοημοσύνης
Explainable deep learning models for image recognition: a comparative study of explainable artificial intelligence techniques
Λέξεις-κλειδιά
Pytorch ; LIME ; DeepSHAP ; Explainable atificial intelligence ; Αναγνώριση εικόναςΠερίληψη
Η παρούσα διπλωματική εργασία ασχολείται με την εξερεύνηση τεχνικών επεξηγήσιμης τεχνητής νοημοσύνης για μοντέλα βαθιάς μάθησης που χρησιμοποιούνται στην αναγνώριση εικόνων. Πιο συγκεκριμένα, θα συγκριθούν και θα αξιολογηθούν διαφορετικές προσεγγίσεις για την εξήγηση της διαδικασίας λήψης αποφάσεων αυτών των μοντέλων, συμπεριλαμβανομένων μεθόδων που βασίζονται σε απόδοση, saliency maps και τεχνικών που βασίζονται σε κλίση (gradient-based techniques). Καθώς θα διερευνηθεί πως αυτές οι τεχνικές μπορούν να βοηθήσουν τους χρήστες να κατανοήσουν και να εμπιστευτούν τις αποφάσεις που λαμβάνονται απο αυτα τα μοντέλα. Η έρευνα περιλαμβάνει εκτός από αναλυτικό θεωρητικό υπόβαθρο και πειραματισμό πάνω σε μοντέλα βαθιάς μάθησης με όσο καλύτερα δεδομένα μπορούμε να έχουμε. Το σύνολο δεδομένων το οποίο θα χρησιμοποιηθεί στο πείραμα είναι το MNIST, ένα ανοικτό σύνολο δεδομένων και αρκετά γνωστό για εκπαίδευση μοντέλων αναγνώρισης εικόνας. Κατά τον πειραματισμό έχει γίνει χρήση της γλώσσας προγραμματισμού python καθώς είναι ένα αρκετά εύκολο και δυνατό εργαλείο που χρησιμοποιείται αρκετά τα τελευταία χρόνια από την επιστημονική κοινότητα, ειδικά στα πλαίσια της τεχνητής νοημοσύνης. Όσο για την εκπαίδευση των μοντέλων μηχανικής μάθησης που θα χρησιμοποιηθούν εχει επιλεγεί το framework Pytorch καθώς είναι open-source και python-friendly εργαλείο.
Περίληψη
This thesis deals with the exploration of explainable artificial intelligence techniques for deep learning models used in image recognition. More specifically, different approaches to explain the decision-making process of these models will be compared and evaluated, including performance-based methods, saliency maps and gradient-based techniques. As it will be explored how these techniques can help users understand and trust the decisions made by these models. The research includes analytical theoretical background and experimentation on deep learning models with the best data we can get. The dataset that will be used in the experiment is MNIST, an open dataset and quite well known for training image recognition models. During the experimentation, the python programming language has been used as it is a fairly easy and powerful tool that has been used quite a lot in recent years by the scientific community, especially in the context of artificial intelligence. As for the training of the machine learning models that will be used, the Pytorch framework has been chosen as it is an open-source and python-friendly tool.