Αναγνώριση και εντοπισμός κράνους με τη χρήση υπολογιστικής όρασης στην πλατφόρμα Coral TPU
Helmet detection using computer vision on the Coral TPU platform
Διπλωματική εργασία
Συγγραφέας
Μιχαλακέας, Σωτήριος
Ημερομηνία
2024-10-07Επιβλέπων
Kachris, ChristoforosΛέξεις-κλειδιά
Ενσωματωμένα συστήματα ; Μηχανική μάθηση ; Υπολογιστική όραση ; Εντοπισμός κράνους ; Google Coral ; Edge TPU ; TensorFlow ; Google ColabΠερίληψη
Στην Διπλωματική εργασία, παρουσιάζεται ένα ενσωματωμένο σύστημα αναγνώρισης και εντοπισμού κράνους, χρησιμοποιώντας την υπολογιστική όραση. Συγκεκριμένα, το Object Detector εφαρμόζεται σε μία πλατφόρμα Google Coral με επιταχυντή Edge TPU, ώστε να επιτυγχάνεται ο εντοπισμός των αντικειμένων σε πραγματικό χρόνο, με μεγαλύτερη ταχύτητα και με σχετικά χαμηλή
κατανάλωση ενέργειας. Τα αποτελέσματα των εντοπισμένων κλάσεων μεταφέρονται ως δυαδικά σήματα (λογικό ‘0’ ή λογικό ‘1’) σε έναν εξωτερικό μικροελεγκτή ο οποίος τα επεξεργάζεται και οδηγεί μία LCD οθόνη και ένα παθητικό piezo buzzer, ώστε να παράγεται θετική ή αρνητική οπτική και ακουστική ανατροφοδότηση στους οδηγούς ή συνεπιβάτες. Η εκπαίδευση των μοντέλων γίνεται μέσω της μεθόδου transfer learning που επιτρέπει το Tensorflow Object Detection API, στο προγραμματιστικό περιβάλλον Google Colab. Επιλέχθηκαν δύο αρχιτεκτονικές από το Tensorflow 2 Detection Model Zoo με διαφορετικές δυνατότητες, εκπαιδεύτηκαν με το ίδιο σύνολο δεδομένων και μετά τις δοκιμές τους στο Google Coral, συγκρίθηκαν και αξιολογήθηκαν οι επιδόσεις τους ως προς την ακρίβειά τους και την ταχύτητά τους. Στην συνέχεια, γίνεται λεπτομερής περιγραφή της
δημιουργίας του συστήματος ανατροφοδότησης. Τέλος, θα συζητηθούν μέθοδοι για την πιθανή βελτιστοποίηση των μοντέλων και θα παρουσιαστεί και η κατανάλωση ενέργειας που έχει το καθένα.
Περίληψη
In this Diploma Thesis, an embedded system is presented, which utilizes machine learning and computer vision to detect helmets. Furthermore, the Object Detector is deployed in the Google Coral platform, using the EdgeTPU accelerator to achieve real time detection, by increasing the model’s detection speed while using relatively low power. The detection results are transferred by logic signals (logical ‘0’ or logical ‘1’) to an external microcontroller that processes them and drives an LCD and a piezo buzzer to create positive or negative visual and auditory feedback to the drivers and passengers. The method in which the models are trained is transfer learning, which can be achieved by using the Tensorflow Object Detection API in the Google Colab programming environment. Two different model architectures with different properties are chosen from the Tensorflow 2 Detection
Model Zoo, trained with the same image dataset and after the testing process in the Google Coral Dev Board, their performance is evaluated and compared, based on their accuracy and speed. Also, a detailed description of the creation process of the external feedback system is provided. Finally, some model optimization methods are discussed, and the power consumption of each model will be presented.