Metodo per facilitare la corrispondenza visuale in immagini tramite la proiezione di pattern virtuali, ottenuto sostituendo un proiettore di pattern convenzionale con un robusto sensore di profondità
Titolo brevetto | Apparato di elaborazione di immagini, corrispondente procedimento e prodotto informatico |
---|---|
Area | Industria, Digitale e Sicurezza |
Titolarità | ALMA MATER STUDIORUM - UNIVERSITA' DI BOLOGNA |
Inventori | Matteo Poggi, Fabio Tosi, Stefano Mattoccia, Luca Bartolomei |
Ambito territoriale di tutela | Italia |
Stato | Disponibile per accordi di sviluppo, opzione, licenza e altri accordi di valorizzazione |
Keywords | Proiezione pattern virtuali senza proiettore fisico, Robusta corrispondenza visuale per algoritmi convenzionali e metodi basati su apprendimento, Sensore attivo per stima profondità utilizzato per proiettare pattern virtuali sulle immagini |
Depositato il | 13 luglio 2023 |
I sistemi stereo passivi, nonostante i progressi apportati dal deep-learning, faticano a trovare corrispondenze visuali in alcune circostanze come ad esempio in regioni uniformi. I sistemi attivi, proiettando un pattern sulla scena, consentono di risolvere molte delle ambiguità evidenziate. Tuttavia, i proiettori di pattern hanno numerosi limiti: non funzionano a lunga distanza, sotto il sole, possono interferire tra loro, hanno derive termiche, etc.
Il metodo proposto consente di ottenere i vantaggi dei sistemi attivi senza dover necessariamente utilizzare un proiettore, con tutti i limiti che la tecnologia porta con sè. La proiezione virtuale si ottiene sfruttando un robusto sensore di profondità. È possibile, inoltre, estendere il sistema proposto ad altre configurazioni (es. multi-view stereo, monocular depth estimation, depth completion, optical flow)
Tutti i contesti applicativi che richiedono percezione di depth e optical flow; miglioramento della stima della profondità; garanzia di una maggiore robustezza ai cambi di dominio che interessano i sistemi basati su deep-learning; garanzia della massima flessibilità nella scelta dei pattern virtuali proiettati sulla scena. Il setup utilizzato dal nostro metodo è già disponibile in molti settori applicativi di riferimento (es., autonomous/assisted driving) e dispositivi commerciali di massa (es., smartphones and tablets)