29443 - VISIONE ARTIFICIALE E RICONOSCIMENTO

Anno Accademico 2021/2022

  • Docente: Annalisa Franco
  • Crediti formativi: 6
  • SSD: ING-INF/05
  • Lingua di insegnamento: Italiano
  • Moduli: Annalisa Franco (Modulo 1) Matteo Ferrara (Modulo 2)
  • Modalità didattica: Convenzionale - Lezioni in presenza (Modulo 1) Convenzionale - Lezioni in presenza (Modulo 2)
  • Campus: Cesena
  • Corso: Laurea Magistrale in Ingegneria e scienze informatiche (cod. 8614)

Conoscenze e abilità da conseguire

Il corso ha l'obiettivo di fornire agli studenti le nozioni e gli strumenti necessari per la progettazione e realizzazione di sistemi automatici in grado di analizzare immagini digitali ai fini della localizzazione e riconoscimento di oggetti. In particolare il corso si focalizza principalmente sulle tecniche di estrazione di caratteristiche da immagini digitali (forma, colore e tessitura) e sull’applicazione di tali tecniche alle problematiche tipiche della visione artificiale – localizzazione, classificazione e ricerche di similarità – con approfonditi esempi applicativi nell’ambito dei sistemi di riconoscimento biometrico (volto e impronte digitali).

Contenuti

  • Richiami di elaborazione di immagini e filtraggio digitale

  • Estrazione di feature
    • Feature di colore:

      - color histograms e metriche di similarità/distanza;

      - color moments.

    • Feature di tessitura:

      - matrici di co-occorrenza dei livelli di grigio e relative;

      - Filtri di Gabor: banchi di filtri;

      - Haar features: immagine integrale ed estrazione efficiente delle feature;

      - Local Binary Pattern.

    • Feature di forma:

      - Estrazione del contorno e rappresentazioni monodimensionali della forma;

      - Descrittori di forma, descrittori di Fourier;

      - Momenti invarianti.

    • Handcrafted features vs Representation learning
  • Image stitching, registrazione immagini 2D, Visual SLAM
    • Keypoints e descrittori locali:
    • - Localizzazione dei punti di interesse: Harris corner detector;

      - Localizzazione invariante per cambiamenti di scala: Harris Laplace, Laplacian of Gaussian, Difference of Gaussian;

      - Keypoints e descrittori: descrittori SIFT, SURF, BRIEF, Histogram of Oriented Gradients;

      - Algoritmo Ransac per feature matching.

    - Applicazioni in ambito robotico: Visual SLAM (Simultaneous Localization and Mapping)
  • Segmentazione semantica in immagini
    • Tecniche basate su analisi del colore, algoritmo Mean Shift;
    • Tecniche di segmentazione basate su deep learning con esempi applicativi nell’ambito di immagini satellitari e mediche.
  • Riconoscimento “in the wild”
    • Classificazione/detection di oggetti
    • - Feature di forma, colore e tessitura per content-based image retrieval;

      - Bag of visual Words;

      - Tecniche di localizzazione/riconoscimento di oggetti tramite template matching rigido basato su feature (es. riconoscimento di prodotti nei supermercati);

      - Trasformata di Hough;

      - Tecniche di deep learning per la localizzazione/riconoscimento di oggetti (es. riconoscimento pedoni e segnali stradali, riconoscimento oggetti per robotic vision, localizzazione e riconoscimento di volti).

  • Video sorveglianza e analisi video
    • Tecniche di base per frame subtraction e background modeling
    • Tecniche per il tracking di oggetti/persone e crowd analysis;
    • Tecniche di rilevamento e riconoscimento di attività umane.

Testi/Bibliografia

 

  • Zhang, Lipton, Li, Smola, Dive into Deep Learning, https://d2l.ai, 2020.
  • Elgendy, "Deep Learning for Vision Systems", Manning, 2020.
  • Forsyth e Ponce, Computer Vision a modern approach, Pearson, 2012.
  • Kaehler e Bradski, Learning OpenCV 3, O'Reilly, 2017.
  • Shi, "Emgu CV Essentials", Packt publishing, 2013.
  • Gonzalez e Woods, Elaborazioni delle immagini digitali, Prentice Hall, 3 edizione, 2008.

Metodi didattici

Lezioni frontali

Esercitazioni guidate in laboratorio, individuali o di gruppo, con utilizzo di librerie pubbliche e multi-piattaforma per computer vision (es. OpenCV) e Deep Learning (es. Tensorflow, PyTorch).

In considerazione della tipologia di attività e dei metodi didattici adottati, la frequenza di questa attività formativa richiede la preventiva partecipazione di tutti gli studenti ai moduli 1 e 2 di formazione sulla sicurezza nei luoghi di studio, in modalità e-learning.

Modalità di verifica e valutazione dell'apprendimento

L'esame di fine corso mira a valutare il raggiungimento degli obiettivi didattici:

  • Conoscere le principali tecniche di estrazione di feature di forma, colore, tessitura;
  • Aver compreso le tecniche di rappresentazione di immagini basate su keypoint e descrittori locali;
  • Conoscere le principali tecniche di segmentazione di immagini
  • Saper progettare e realizzare applicazioni di localizzazione e/o riconoscimento di oggetti, sia basate su feature handcrafted, sia basate su tecniche di deep-learning.
  • Conoscere le principali tecniche di analisi video per il tracking di oggetti e persone e l'analisi di attività umane.

L'esame consiste nella realizzazione e discussione di un elaborato di progetto, individuale o di gruppo, e in una prova orale (sull'intero programma del corso) volta a valutare le conoscenze che lo studente ha acquisito. La discussione del progetto si svolgerà contestualmente alla prova orale e sarà formulato un giudizio complessivo.

Strumenti a supporto della didattica

  • Dispense a cura del docente
  • Tracce e progetto scheletro per le esercitazioni
  • Libreria Emgu CV (wrapper C# per la libreria OpenCV)
  • Deep learning frameworks

Orario di ricevimento

Consulta il sito web di Annalisa Franco

Consulta il sito web di Matteo Ferrara

SDGs

Istruzione di qualità Imprese innovazione e infrastrutture

L'insegnamento contribuisce al perseguimento degli Obiettivi di Sviluppo Sostenibile dell'Agenda 2030 dell'ONU.