Εμφάνιση απλής εγγραφής

Ανάπτυξη τεχνικών εκπαίδευσης νευρωνικών δικτύων ακτινικής συνάρτησης βάσης με τον αλγόριθμο Levenberg-Marquardt

dc.contributor.advisorAlexandridis, Alex
dc.contributor.authorΓερολυμάτος, Γεώργιος
dc.date.accessioned2022-11-01T13:23:24Z
dc.date.available2022-11-01T13:23:24Z
dc.date.issued2022-09
dc.identifier.urihttps://polynoe.lib.uniwa.gr/xmlui/handle/11400/3272
dc.identifier.urihttp://dx.doi.org/10.26265/polynoe-3112
dc.description.abstractΗ εν λόγω εργασία έχει ως αντικείμενο την ανάπτυξη και αξιολόγηση τεχνικών εκπαίδευσης νευρωνικών δικτύων ακτινικής συνάρτησης βάσης (Radial Basis Function Networks, RBFNs), με γνώμονα την δημιουργία μοντέλων υψηλής απόδοσης και ακρίβειας. Η εκπαίδευση βασίζεται στον αλγόριθμό βελτιστοποίησης Levenberg-Marquardt (LM) με τον οποίον γίνεται ο προσδιορισμός των παραμέτρων του μοντέλου. Συγκεκριμένα, των συναπτικών βαρών, των θέσεων των κέντρων RBF και εάν είναι απαραίτητο, των ευρών των συναρτήσεων βάσης. Δοκιμάσθηκαν δύο εκδοχές της εν λόγω μεθόδου για την δυνατότητα σύγκρισης των αποτελεσμάτων. Στην πρώτη εκδοχή, η κατάτμηση των συνόλων των παραμέτρων του προβλήματος εκπαίδευσης επιτυγχάνεται με γνώμονα τη γραμμικότητά τους. Η απαλοιφή των γραμμικών παραμέτρων και η ανάπτυξη της προβολής της μεταβλητής (Variable Projection,VP) προς τις μη γραμμικές παραμέτρων, εξελίσσεται σε δυο επιμέρους προβλήματα: το μη γραμμικό για την ενημέρωση των κέντρων σε κάθε επανάληψη της LM, καθώς και τον υπολογισμό των βαρών από την επίλυση ενός απλού γραμμικού προβλήματος ελαχίστων τετραγώνων. Στην δεύτερη εκδοχή δεν προηγείται διάσπαση των συνόλων των παραμέτρων, το πρόβλημα είναι πλήρες συναρτησιακό, με τα βάρη να ενημερώνονται παράλληλα με τα κέντρα στις επαναλήψεις του αλγορίθμου LM. Οι αρχικές θέσεις των κέντρων προέρχονται από τον αλγόριθμο των ασαφών μέσων (Fuzzy Means, FM), τα αρχικά βάρη καθορίζονται από την μέθοδο των ελαχίστων τετραγώνων και τα εύρη των συναρτήσεων βάσης υπολογίζονται με την μέθοδο των κ-κοντινότερων γειτόνων. Οι δύο εκδοχές δοκιμάστηκαν σε 12 προσομοιωμένα αλλά και πραγματικά σύνολα δεδομένων της βιβλιογραφίας και συγκρίθηκαν με άλλες μεθόδους εκπαίδευσης νευρωνικών δικτύων. Τα αποτελέσματα και των δύο εκδοχών κρίθηκαν ικανοποιητικά και ανταγωνιστικά σε σύγκριση με των άλλων μεθόδων. Ιδιαίτερα με την εκδοχή VP δημιουργήθηκαν δίκτυα με υψηλότερη ταχύτητα εκπαίδευσης και ταυτόχρονα μικρότερα σε μέγεθος.el
dc.format.extent67el
dc.language.isoelel
dc.publisherΠανεπιστήμιο Δυτικής Αττικήςel
dc.rightsΑναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 4.0 Διεθνές*
dc.subjectLevenberg–Marquardt algorithmel
dc.subjectΑσαφή σύνολαel
dc.subjectΔίκτυα ακτινικής συνάρτησης βάσηςel
dc.subjectΜέθοδοι προβολής μεταβλητήςel
dc.subjectΤεχνητή νοημοσύνηel
dc.subjectΝευρωνικά δίκτυαel
dc.titleΑνάπτυξη τεχνικών εκπαίδευσης νευρωνικών δικτύων ακτινικής συνάρτησης βάσης με τον αλγόριθμο Levenberg-Marquardtel
dc.title.alternativeDevelopment of radial basis function neural network training techniques based on the Levenberg-Marquardt algorithmel
dc.typeΔιπλωματική εργασίαel
dc.contributor.committeePapadopoulos, Perikles
dc.contributor.committeeFamelis, Ioannis
dc.contributor.facultyΣχολή Μηχανικώνel
dc.contributor.departmentΤμήμα Ηλεκτρολόγων και Ηλεκτρονικών Μηχανικώνel
dc.description.abstracttranslatedThe purpose of this work is to develop and evaluation techniques for training Radial Basis Function neural networks (RBFNs), focusing on the creation of high performance and accuracy models. Training is performed using the Levenberg-Marquardt (LM) optimization algorithm which is used to define the model parameters. In particular the synaptic weights, the positions of the RBF centers and if it is necessary, the widths of the basis functions. Two versions of such method were tested so that the results can be compared. In the first version, the segmentation of the sets in the training problem parameters is achieved by taking into account whether they are linear. The elimination process for the linear parameters and the development of the Variable Projection (VP) towards the nonlinear parameters evolves into two subproblems. The nonlinear subproblem corresponds to updating the centers at each iteration of LM, while the linear one to calculating the weights by solving a simplified linear least squares’ problem. In the second version where no separation of the parameter sets is preceded, the problem becomes Fully Functional (FF), with the weights being updated along with the centers in the iterations of the LM algorithm. The initial positions of the centers are obtained from the Fuzzy Means (FM) algorithm, the initial weights are determined by the least squares’ method and the widths of the basis functions are computed by the k-nearest neighbors’ algorithm The two versions were tested on 12 simulated and real-world benchmark datasets in the literature and compared with other neural network training methods. The results of both versions were found to be competitive compared to the other methods. Especially the VP version created networks with higher training speed and smaller size.el


Αρχεία σε αυτό το τεκμήριο

Thumbnail

Αυτό το τεκμήριο εμφανίζεται στις ακόλουθες συλλογές

Εμφάνιση απλής εγγραφής