Apparato di elaborazione e proiezione di immagini

Metodo per facilitare la corrispondenza visuale in immagini tramite la proiezione di pattern virtuali, ottenuto sostituendo un proiettore di pattern convenzionale con un robusto sensore di profondità

Titolo brevetto Apparato di elaborazione di immagini, corrispondente procedimento e prodotto informatico
Area Industria, Digitale e Sicurezza
Titolarità ALMA MATER STUDIORUM - UNIVERSITA' DI BOLOGNA
Inventori Stefano Mattoccia, Matteo Poggi, Fabio Tosi, Luca Bartolomei
Ambito territoriale di tutela Nazionale
Stato Italia (IT)
Keywords Proiezione pattern virtuali senza proiettore fisico / Robusta corrispondenza visuale per algoritmi convenzionali e metodi basati su apprendimento / Sensore attivo per stima profondità utilizzato per proiettare pattern virtuali sulle immagini
Depositato il 13 luglio 2023

I sistemi stereo passivi, nonostante i progressi apportati dal deep-learning, faticano a trovare corrispondenze visuali in alcune circostanze come ad esempio in regioni uniformi. I sistemi attivi, proiettando un pattern sulla scena, consentono di risolvere molte delle ambiguità evidenziate. Tuttavia, i proiettori di pattern hanno numerosi limiti: non funzionano a lunga distanza, sotto il sole, possono interferire tra loro, hanno derive termiche, etc. 

Il metodo proposto consente di ottenere i vantaggi dei sistemi attivi senza dover necessariamente utilizzare un proiettore, con tutti i limiti che la tecnologia porta con sè. La proiezione virtuale si ottiene sfruttando un robusto sensore di profondità. È possibile, inoltre, estendere il sistema proposto ad altre configurazioni (es. multi-view stereo, monocular depth estimation, depth completion, optical flow)

Tutti i contesti applicativi che richiedono percezione di depth e optical flow; miglioramento della stima della profondità; garanzia di una maggiore robustezza ai cambi di dominio che interessano i sistemi basati su deep-learning; garanzia della massima flessibilità nella scelta dei pattern virtuali proiettati sulla scena. Il setup utilizzato dal nostro metodo è già disponibile in molti settori applicativi di riferimento (es., autonomous/assisted driving) e dispositivi commerciali di massa (es., smartphones and tablets)

Pagina pubblicata il: 28 agosto 2023