- Docente: Annalisa Franco
- Crediti formativi: 6
- SSD: ING-INF/05
- Lingua di insegnamento: Italiano
- Moduli: Annalisa Franco (Modulo 1) Matteo Ferrara (Modulo 2)
- Modalità didattica: Convenzionale - Lezioni in presenza (Modulo 1) Convenzionale - Lezioni in presenza (Modulo 2)
- Campus: Cesena
- Corso: Laurea Magistrale in Ingegneria e scienze informatiche (cod. 8614)
-
Orario delle lezioni (Modulo 1)
dal 18/09/2023 al 18/12/2023
-
Orario delle lezioni (Modulo 2)
dal 28/09/2023 al 14/12/2023
Conoscenze e abilità da conseguire
Il corso ha l'obiettivo di fornire agli studenti le nozioni e gli strumenti necessari per la progettazione e realizzazione di sistemi automatici in grado di analizzare immagini digitali ai fini della localizzazione e riconoscimento di oggetti. In particolare il corso si focalizza principalmente sulle tecniche di estrazione di caratteristiche da immagini digitali (forma, colore e tessitura) e sullapplicazione di tali tecniche alle problematiche tipiche della visione artificiale localizzazione, classificazione e ricerche di similarità con approfonditi esempi applicativi nellambito dei sistemi di riconoscimento biometrico (volto e impronte digitali).
Contenuti
- Richiami di elaborazione di immagini e filtraggio digitale
- Estrazione di feature
- Feature di colore:
- color histograms e metriche di similarità/distanza;
- color moments.
- Feature di tessitura:
- matrici di co-occorrenza dei livelli di grigio e relative;
- Filtri di Gabor: banchi di filtri;
- Haar features: immagine integrale ed estrazione efficiente delle feature;
- Local Binary Pattern.
- Feature di forma:
- Estrazione del contorno e rappresentazioni monodimensionali della forma;
- Descrittori di forma, descrittori di Fourier;
- Momenti invarianti.
- Handcrafted features vs Representation learning
- Feature di colore:
- Image stitching, registrazione immagini 2D, Visual SLAM
- Keypoints e descrittori locali:
- Localizzazione dei punti di interesse: Harris corner detector;
- Localizzazione invariante per cambiamenti di scala: Harris Laplace, Laplacian of Gaussian, Difference of Gaussian;
- Keypoints e descrittori: descrittori SIFT, SURF, BRIEF, Histogram of Oriented Gradients;
- Algoritmo Ransac per feature matching.
- Segmentazione semantica in immagini
- Tecniche basate su analisi del colore, algoritmo Mean Shift;
- Tecniche di segmentazione basate su deep learning con esempi applicativi nell’ambito di immagini satellitari e mediche.
- Riconoscimento “in the wild”
- Classificazione/detection di oggetti
- Video sorveglianza e analisi video
- Tecniche di base per frame subtraction e background modeling
- Tecniche per il tracking di oggetti/persone e crowd analysis;
- Tecniche di rilevamento e riconoscimento di attività umane.
- Feature di forma, colore e tessitura per content-based image retrieval;
- Bag of visual Words;
- Tecniche di localizzazione/riconoscimento di oggetti tramite template matching rigido basato su feature (es. riconoscimento di prodotti nei supermercati);
- Trasformata di Hough;
- Tecniche di deep learning per la localizzazione/riconoscimento di oggetti (es. riconoscimento pedoni e segnali stradali, riconoscimento oggetti per robotic vision, localizzazione e riconoscimento di volti).
Testi/Bibliografia
- Zhang, Lipton, Li, Smola, Dive into Deep Learning, https://d2l.ai, 2020.
- Elgendy, "Deep Learning for Vision Systems", Manning, 2020.
- Forsyth e Ponce, Computer Vision a modern approach, Pearson, 2012.
- Kaehler e Bradski, Learning OpenCV 3, O'Reilly, 2017.
- Shi, "Emgu CV Essentials", Packt publishing, 2013.
- Gonzalez e Woods, Elaborazioni delle immagini digitali, Prentice Hall, 3 edizione, 2008.
Metodi didattici
Lezioni frontali
Esercitazioni guidate in laboratorio, individuali o di gruppo, con utilizzo di librerie pubbliche e multi-piattaforma per computer vision (es. OpenCV) e Deep Learning (es. Tensorflow, PyTorch).
In considerazione della tipologia di attività e dei metodi didattici adottati, la frequenza di questa attività formativa richiede la preventiva partecipazione di tutti gli studenti ai moduli 1 e 2 di formazione sulla sicurezza nei luoghi di studio, in modalità e-learning.
Modalità di verifica e valutazione dell'apprendimento
L'esame di fine corso mira a valutare il raggiungimento degli obiettivi didattici:
- Conoscere le principali tecniche di estrazione di feature di forma, colore, tessitura;
- Aver compreso le tecniche di rappresentazione di immagini basate su keypoint e descrittori locali;
- Conoscere le principali tecniche di segmentazione di immagini
- Saper progettare e realizzare applicazioni di localizzazione e/o riconoscimento di oggetti, sia basate su feature handcrafted, sia basate su tecniche di deep-learning.
- Conoscere le principali tecniche di analisi video per il tracking di oggetti e persone e l'analisi di attività umane.
L'esame consiste nella realizzazione e discussione di un elaborato di progetto, individuale o di gruppo, e in una prova orale (sull'intero programma del corso) volta a valutare le conoscenze che lo studente ha acquisito. La discussione del progetto si svolgerà contestualmente alla prova orale e sarà formulato un giudizio complessivo.
Strumenti a supporto della didattica
- Dispense a cura del docente
- Tracce e progetto scheletro per le esercitazioni
- Libreria OpenCV
- Deep learning frameworks
Orario di ricevimento
Consulta il sito web di Annalisa Franco
Consulta il sito web di Matteo Ferrara
SDGs
L'insegnamento contribuisce al perseguimento degli Obiettivi di Sviluppo Sostenibile dell'Agenda 2030 dell'ONU.