Architetture hardware e cloud per l'elaborazione di big data provenienti da monitoraggio continuo

Alte competenze Rovatti 2018

Abstract

Una delle sorgenti più notevoli di big-data sono le applicazioni che rientrano nella famiglia del “monitoring”, ovvero quelle in cui un sistema di sensori anche eterogenei e anche distribuiti su aree estese, rileva e trasmette ad un’unità di elaborazione, senza interruzione, letture che caratterizzano lo stato dell’oggetto del “monitoring” o delle attività che si svolgono in sua prossimità. Sono applicazioni di “monitoring” la sorveglianza di zone da mantenere sicure, il controllo dei parametri ambientali di zone protette, ma anche l’analisi degli sforzi a cui sono sottoposte le macchine in un ambiente manifatturiero a scopo di manutenzione predittiva nonché la caratterizzazione degli stress in strutture di grandi dimensioni come edifici, ponti così come velivoli, imbarcazioni, ecc. I dati rilevati da sensori vengono raccolti localmente da concentratori che possono elaborarli localmente o instradarli verso una piattaforma cloud dove vengono immagazzinati ed elaborati. La quantità di dati prodotta dal “monitoring” è potenzialmente elevatissima: i sensori predisposti possono essere qualche centinaio ed ognuno di loro è tipicamente in grado di registrare letture per molte decine di volte al secondo con il risultato che i dati possono facilmente essere prodotti a ritmi di più di 1Gbyte/giorno. Tutti i compiti di “monitoring” hanno in comune la necessità di elaborare le tracce rilevate dai sensori per estrarne informazioni utili e presentano quindi caratteristiche comuni quanto a strategie di memorizzazione e reperimento dei dati nonché di processamento degli stessi, ciò pur essendo lo specifico algoritmo dipendente dall’applicazione. Sono anche accomunati dal richiedere elaborazioni su più scale dei tempi: i dati vanno sia analizzati nel corto periodo (per esempio per rilevare potenziali situazioni di pericolo) che nel lungo e lunghissimo periodo (per esempio per individuare tendenze o derive). L’attività di dottorato si propone di analizzare tutta la catena di trasmissione, memorizzazione ed elaborazione dei dati di “monitoring” rendendola efficiente, ovvero in grado di soddisfare eventuali vincoli di tempo di risposta, ed economicamente sostenibile, ovvero praticabile con gli strumenti di raccolta dati e cloud computing comunemente accessibili e tipicamente fornite da gestori di data-center che vendono i propri servizi ad una molteplicità di utenti. Partendo dall’acquisizione e salendo fino all’estrazione delle informazioni, l’attività si occuperà di - Metodi per il condizionamento dei segnali e compressione locale dei dati vicino al sensore - Metodi per l’individuazione dei dati rilevanti e elaborazione a bassa latenza edge-of-the-cloud - Metodi per l’amministrazione ottima delle risorse di memorizzazione e di elaborazione in ambiente cloud in modo da soddisfare vincoli di prestazione ma anche vincoli di costo. I metodi che si cercherà di sviluppare mireranno alla maggior generalità possibile. Nonostante ciò, l’attività deriverà le proprie linee guida e i propri benchmark da almeno due applicazioni distinte: - il monitoraggio di strutture tramite sensori di accelerazione, umidità e temperatura; - il monitoraggio delle movimentazioni in magazzini automatizzati o semiautomatizzati in base alle letture dei codici identificativi della merce L’interazione con il contributo industriale potrà comunque modificare o focalizzare diversamente gli ambiti applicativi. 

Dettagli del progetto

Responsabile scientifico: Riccardo Rovatti

Strutture Unibo coinvolte:
Dipartimento di Ingegneria dell'Energia Elettrica e dell'Informazione "Guglielmo Marconi"

Coordinatore:
ALMA MATER STUDIORUM - Università di Bologna(Italy)

Partner:
Lepida S.C.P.A. (Italy)
DATALOGIC IP Tech srl (Italy)

Contributo totale di progetto: Euro (EUR) 86.743,44
Durata del progetto in mesi: 36

Loghi degli enti finanziatori