Scheda insegnamento
-
Docente Annalisa Franco
-
Moduli Annalisa Franco (Modulo 1)
Matteo Ferrara (Modulo 2)
-
Crediti formativi 6
-
SSD ING-INF/05
-
Modalità didattica Convenzionale - Lezioni in presenza (Modulo 1)
Convenzionale - Lezioni in presenza (Modulo 2)
-
Lingua di insegnamento Italiano
-
Campus di Cesena
-
Corso Laurea Magistrale in Ingegneria e scienze informatiche (cod. 8614)
SDGs
L'insegnamento contribuisce al perseguimento degli Obiettivi di Sviluppo Sostenibile dell'Agenda 2030 dell'ONU.


Anno Accademico 2021/2022
Conoscenze e abilità da conseguire
Il corso ha l'obiettivo di fornire agli studenti le nozioni e gli strumenti necessari per la progettazione e realizzazione di sistemi automatici in grado di analizzare immagini digitali ai fini della localizzazione e riconoscimento di oggetti. In particolare il corso si focalizza principalmente sulle tecniche di estrazione di caratteristiche da immagini digitali (forma, colore e tessitura) e sullapplicazione di tali tecniche alle problematiche tipiche della visione artificiale localizzazione, classificazione e ricerche di similarità con approfonditi esempi applicativi nellambito dei sistemi di riconoscimento biometrico (volto e impronte digitali).
Contenuti
- Richiami di elaborazione di immagini e filtraggio digitale
- Estrazione di feature
- Feature di colore:
- color histograms e metriche di similarità/distanza;
- color moments.
- Feature di tessitura:
- matrici di co-occorrenza dei livelli di grigio e relative;
- Filtri di Gabor: banchi di filtri;
- Haar features: immagine integrale ed estrazione efficiente delle feature;
- Local Binary Pattern.
- Feature di forma:
- Estrazione del contorno e rappresentazioni monodimensionali della forma;
- Descrittori di forma, descrittori di Fourier;
- Momenti invarianti.
- Handcrafted features vs Representation learning
- Feature di colore:
- Image stitching, registrazione immagini 2D, Visual SLAM
- Keypoints e descrittori locali:
- Localizzazione dei punti di interesse: Harris corner detector;
- Localizzazione invariante per cambiamenti di scala: Harris Laplace, Laplacian of Gaussian, Difference of Gaussian;
- Keypoints e descrittori: descrittori SIFT, SURF, BRIEF, Histogram of Oriented Gradients;
- Algoritmo Ransac per feature matching.
- Segmentazione semantica in immagini
- Tecniche basate su analisi del colore, algoritmo Mean Shift;
- Tecniche di segmentazione basate su deep learning con esempi applicativi nell’ambito di immagini satellitari e mediche.
- Riconoscimento “in the wild”
- Classificazione/detection di oggetti
- Video sorveglianza e analisi video
- Tecniche di base per frame subtraction e background modeling
- Tecniche per il tracking di oggetti/persone e crowd analysis;
- Tecniche di rilevamento e riconoscimento di attività umane.
- Feature di forma, colore e tessitura per content-based image retrieval;
- Bag of visual Words;
- Tecniche di localizzazione/riconoscimento di oggetti tramite template matching rigido basato su feature (es. riconoscimento di prodotti nei supermercati);
- Trasformata di Hough;
- Tecniche di deep learning per la localizzazione/riconoscimento di oggetti (es. riconoscimento pedoni e segnali stradali, riconoscimento oggetti per robotic vision, localizzazione e riconoscimento di volti).
Testi/Bibliografia
- Zhang, Lipton, Li, Smola, Dive into Deep Learning, https://d2l.ai, 2020.
- Elgendy, "Deep Learning for Vision Systems", Manning, 2020.
- Forsyth e Ponce, Computer Vision a modern approach, Pearson, 2012.
- Kaehler e Bradski, Learning OpenCV 3, O'Reilly, 2017.
- Shi, "Emgu CV Essentials", Packt publishing, 2013.
- Gonzalez e Woods, Elaborazioni delle immagini digitali, Prentice Hall, 3 edizione, 2008.
Metodi didattici
Lezioni frontali
Esercitazioni guidate in laboratorio, individuali o di gruppo, con utilizzo di librerie pubbliche e multi-piattaforma per computer vision (es. OpenCV) e Deep Learning (es. Tensorflow, PyTorch).
In considerazione della tipologia di attività e dei metodi didattici adottati, la frequenza di questa attività formativa richiede la preventiva partecipazione di tutti gli studenti ai moduli 1 e 2 di formazione sulla sicurezza nei luoghi di studio, in modalità e-learning.
Modalità di verifica e valutazione dell'apprendimento
L'esame di fine corso mira a valutare il raggiungimento degli obiettivi didattici:
- Conoscere le principali tecniche di estrazione di feature di forma, colore, tessitura;
- Aver compreso le tecniche di rappresentazione di immagini basate su keypoint e descrittori locali;
- Conoscere le principali tecniche di segmentazione di immagini
- Saper progettare e realizzare applicazioni di localizzazione e/o riconoscimento di oggetti, sia basate su feature handcrafted, sia basate su tecniche di deep-learning.
- Conoscere le principali tecniche di analisi video per il tracking di oggetti e persone e l'analisi di attività umane.
L'esame consiste nella realizzazione e discussione di un elaborato di progetto, individuale o di gruppo, e in una prova orale (sull'intero programma del corso) volta a valutare le conoscenze che lo studente ha acquisito. La discussione del progetto si svolgerà contestualmente alla prova orale e sarà formulato un giudizio complessivo.
Strumenti a supporto della didattica
- Dispense a cura del docente
- Tracce e progetto scheletro per le esercitazioni
- Libreria Emgu CV (wrapper C# per la libreria OpenCV)
- Deep learning frameworks
Orario di ricevimento
Consulta il sito web di Annalisa Franco
Consulta il sito web di Matteo Ferrara