Foto del docente

Sergio Callegari

Professore associato

Dipartimento di Ingegneria dell'Energia Elettrica e dell'Informazione "Guglielmo Marconi"

Settore scientifico disciplinare: ING-INF/01 ELETTRONICA

Temi di ricerca

  1. Circuiti e sistemi non lineari
    • progetto e analisi di circuiti non lineari, specie tempo-discreti, per la generazione di segnali con pre-assegnate proprietà statistiche.
  2. Elaborazione dati e sensori per applicazioni fluidodinamiche
    • metodologie innovative per la stima di angoli di assetto e velocità
    • approccio indiretto alla misura di dati aria, con letture effettuate "sulla pelle" del velivolo
    • reti di sensori
    • sensori capacitivi
  3. Codifiche impulsive per l'attuazione, la sintesi di segnale, l'amplificazione audio e la conversione di potenza
    • codifiche computazionalmente efficienti per coniugare un'ottima resa energetica con bassa distorsione e basso livello di emissione elettromagnetica
  4. True-Random Number Generators
    • progetto di generatori di sequenze "veramente casuali", basati su dinamiche caotiche e sul riuso di moduli circuitali di ADC
  5. Oscillation Based Test e Complex Oscillation Based Test:
    • imposizione di regimi oscillatori, specie complessi, per la validazione di circuiti analogici e mixed-mode.


L'attività di ricerca di Sergio Callegari è rivolta a vari aspetti dell'elettronica e della microelettronica e coinvolge due filoni di attività fondamentali: il primo legato all'analisi e ottimizzazione di sistemi non lineari; il secondo alla sensoristica.

1 Analisi, sintesi, ottimizzazione di sistemi non-lineari

Dal 1996, Sergio Callegari si occupa di circuiti e sistemi non-lineari. Recentemente l'attività si concentra in particolare sui circuiti a dinamica complessa e sullo sfruttamento di caratteristiche non lineari per l'ottimizzazione di sistemi ingegneristici.

1.1 Modulazioni d'impulso e sistemi a commutazione

Questo filone di ricerca mira a sviluppare codificatori innovativi per segnali di tipo impulsivo, binari o comunque discreti nei livelli, con particolare riferimento all'attuazione, alla sintesi di forme d'onda e all'amplificazione audio.

Tradizionalmente nell'ingegneria le modulazioni hanno rappresentato prevalentemente un metodo per sfruttare le caratteristiche dei mezzi trasmissivi. In termini più generali esse costituiscono tuttavia un intero paradigma per la rappresentazione dell'informazione, dove quest'ultima viene distribuita nel tempo (ed eventualmente nello spazio) all'interno di segnali (o vettori di segnali). In particolare le modulazioni d'impulso (come quelle di larghezza, posizione, densità, frequenza —- rispettivamente PWM, PPM, PDM e PFM) sfruttano tale proprietà per consentire ad un segnale discreto nei valori (e quindi manipolabile con strumenti di tipo digitale) di esibire proprietà di tipo analogico come la capacità di essere direttamente processato da filtri continui e da impianti fisici.

Tale proprietà viene utilizzata con successo nell'attuazione. Ad esempio i regolatori e gli amplificatori a commutazione si avvantaggiano di modulazioni di tipo impulsivo per controllare le operazioni di un ponte di potenza che a sua volta amministra in maniera discontinua e virtualmente priva di perdite l'erogazione di potenza ad un carico, sia esso una macchina elettrica, un altoparlante o un qualsiasi altro apparato elettrico. Tuttavia le possibilità offerte dalle modulazioni di impulso non sono generalmente sfruttate in pieno. In molti casi la capacità di soddisfare gli obiettivi di regolazione di potenza è più un effetto collaterale delle proprietà di un modulatore standard che non il risultato deliberato di una strategia di codifica.

L'obiettivo della ricerca è di sviluppare nuove generazioni di codificatori, simili nell'uso a quelli tradizionali e massimamente compatibili con essi (così da favorirne una rapida accettazione), ma basati su principi operativi radicalmente diversi. Piuttosto che funzionare usando modulazioni standard, i codificatori saranno esplicitamente progettati per esaltare specifici indici di prestazione grazie ad un'estesa applicazione di tecniche di ottimizzazione e all'individuazione di proprietà matematiche salienti. In altri termini una volta assegnato un contenuto informativo da rappresentare, una lista di vincoli ed una serie di desiderata con cui esprimere un fattore di merito, la decisione finale su come codificare l'informazione verrà prodotta attraverso l'esplicito tentativo di ottimizzare l'indice di merito stesso.

Questo filone di ricerca ha dato vita al progetto «OpIMA» (Optimized Impulsive Modulations for Actuation), che è stato finanziato nell'ambito dei Progetti Strategici di Ateneo dell'Università di Bologna ottenendo eccellenti valutazioni, e di cui lo scrivente è coordinatore. Per ulteriori informazioni si veda il sito www.opima-project.it.

1.2 Circuiti non lineari a dinamica complessa

I sistemi caotici esibiscono una dinamica con caratteristiche di frontiera tra comportamenti squisitamente deterministici e comportamenti aleatori. Conseguentemente possono essere efficacemente modellati sia in maniera classica (sistemi di equazioni differenziali o alle differenze, ecc.) che in maniera statistica, al pari di processi stocastici. A questo proposito va osservato che nonostante la possibilità teorica di impiegare modelli deterministici il comportamento aperiodico e la proprietà di sensibilità alle condizioni iniziali rendono impossibile prevederne il il comportamento futuro, e per molti aspetti assimilano i sistemi caotici a sorgenti casuali.

Questo apparente paradosso ha reso già da lunga data i sistemi caotici oggetto di speculazione ed interesse. Molto recente è tuttavia lo studio di applicazioni ingegneristiche del caos e l'approfondimento di tecniche di analisi e sintesi di circuiti elettronici capaci di esibire comportamenti caotici. In effetti, inizialmente, lo studio ingegneristico del caos è stato quasi totalmente orientato al riconoscimento di comportamenti “strani” e alla messa a punto di tecniche per evitarli. Solo in tempi recenti è stata riconosciuta la possibilità di fruttuose applicazioni, con il conseguente significativo orientamento della ricerca verso il progetto.

Attualmente, gli ambiti applicativi del caos spaziano dalle reti neurali alla realizzazione di memorie associative, dalla definizione di schemi di telecomunicazioni a spettro espanso alla crittografia, dal watermarking alla riduzione dell'interferenza elettromagnetica, dalla simulazione alla generazione di chiavi sicure di autenticazione, ecc. La ricerca dell'Ing. Sergio Callegari investe direttamente alcuni di questi campi, mantenendo un'ottica fortemente implementativa.

Alla base dell'attività scientifica sta l'uso di strumenti matematici derivati dalla statistica e orientati all'osservazione contemporanea di una pluralità di traiettorie. Questo approccio, accolto solo molto di recente in ambito ingegneristico, consente una comprensione quantitativa dei sistemi caotici (e in particolare di quelli tempo-discreti) ed una loro caratterizzazione molto profonda rispetto a quanto si può ottenere osservando singole orbite. Chiaramente l'interesse è rivolto sia all'affinamento degli strumenti che alla loro applicazione pratica. A questo riguardo, si è scelto di affrontare problemi per i quali esistono già soluzioni classiche, in modo da poter valutare effettivamente vantaggi e svantaggi derivanti dall'uso di dinamiche caotiche. Particolare importanza rivestono quelle applicazioni in cui gli indici di merito sono già tradizionalmente espressi in termini probabilistici (per esempio, comunicazione a spettro espanso, riduzione dell'interferenza, ecc.).

Inizialmente l'attività scientifica dello scrivente è stata rivolta a quelle applicazioni in cui le sorgenti di tipo caotico possono sostituire efficacemente sorgenti pseudo-random tradizionali. Per esempio, è stata realizzata una sorgente di rumore per un modello stocastico di neurone e sono stati progettati circuiti caotici capaci di generare sequenze binarie equidistribuite e a ridotta auto-correlazione. Sono stati altresì proposti circuiti per l'ottimizzazione di sistemi di telecomunicazione a spettro espanso.

Le applicazioni più recenti riguardano la realizzazione di circuiti caotici a partire da dispositivi programmabili general purpose e da blocchi funzionali standard.

Lo studio riguardante la generazione e l'applicazione di segnali a spettro espanso ha richiesto approfondimenti teorici e ha a sua volta aperto nuovi filoni di ricerca, come ad esempio la già citata ottimizzazione di modulazioni impulsive, nonché la sintesi di sequenze casuali, la produzione di chiavi crittografiche, la validazione di blocchi funzionali analogici.

1.3 Metodologie non convenzionali per la generazione di sequenze casuali e di chiavi crittografiche e di autenticazione

Nell'ambito dell'Information and Communication Technology, è stato recentemente verificato come l'uso di dinamiche caotiche possa consentire una sintesi assai efficiente di generatori true-random, che costituiscono fondamentali primitive di progetto per sistemi crittografici, di autenticazione e di sicurezza informatica .

La generazione di sequenze binarie casuali è inerente nell'applicazione di algoritmi quali il DSA, nella sintesi di chiavi per algoritmi di crittografia a chiave pubblica/simmetrica, nei moduli RSA e in molti algoritmi di comunicazione sicura. La capacità delle tecniche crittografiche di resistere ad attacchi basati sulla ricerca di pattern dipende in maniera critica dalla qualità e sull'impredicibilità dei generatori random impiegati, così che i generatori per le applicazioni crittografiche devono generalmente rispondere a criteri molto più stringenti che non quelli per altre applicazioni.

È generalmente riconosciuto che i generatori true-random possano al più essere approssimati. Una sorgente ideale, dovrebbe infatti essere in grado di produrre sequenze infinitamente lunghe e composte di bit perfettamente indipendenti l'uno dall'altro, con la proprietà che, riavviando la sorgente, non venga mai rigenerata una sequenza già prodotta (proprietà di non-ripetibilità. In pratica i generatori casuali cui si fa riferimento ricadono in due categorie. Da una parte i cosiddetti pseudo-RNG, dall'altra i physical-RNG. Gli pseudo-RNG sono algoritmi deterministici capaci di espandere un seme iniziale in lunghe sequenze binarie. Dall'altra parte, i physical-RNG sono dispositivi che sfruttano fenomeni micro-cosmici che risultano in osservabili macroscopici caratterizzabili come rumore (p.e., quantum noise, intervalli di emissione nei processi di decadimento radioattivo, rumore termico e shot nei circuiti elettronici, fluttuazioni di frequenza negli oscillatori, pattern di attività di operatori umani, ecc.). Chiaramente gli pseudo-RNG sono i più distanti dalle specifiche ideali: essendo basati su algoritmi a memoria finita, esibiscono comportamenti periodici e generano campioni correlati. Per la medesima ragione sono anche completamente ripetibili. È chiaro che la conseguente possibilità (presente almeno in potenza) di ricavare informazioni sul seme dall'osservazione di sequenze di uscita è ben poco desiderabile in applicazioni di sicurezza informatica e crittografia. Il loro vantaggio sostanziale, tuttavia, è la natura algoritmica che li rende facilmente implementabili nei circuiti digitali e nei sistemi programmabili. I generatori fisici, d'altra parte, sono i migliori approssimanti di sorgenti casuali. Sfortunatamente, richiedono generalmente circuiti fortemente specializzati e un forte controllo sulle condizioni ambientali e operative. Ciò li rende poco adatti all'embedding in sistemi elettronici ed informatici. Nonostante ciò, la crescente importanza delle applicazioni relative alla sicurezza ha recentemente fatto sì che le maggiori aziende del settori li stiano introducendo in sostituzione agli pseudo-RNG nelle loro piattaforme hardware.

Ovviamente sarebbe desiderabile introdurre generatori capaci di coniugare le prestazioni delle sorgenti fisiche con la possibilità di essere realizzati a partire da blocchi circuitali standard e già presenti nei sistemi elettronici. Recentemente la ricerca in questa direzione ha prodotto alcune realizzazioni di un certo successo, in particolare sfruttando blocchi periferici analogici di dispositivi FPGA. Tuttavia, questi sistemi sono sempre caratterizzati da data-rate molto bassi (nell'ordine delle decine di kbit/s) e ciò a causa della necessità di fare riferimento a fenomeni rumorosi su cui si ha poco o nessun controllo.

Una proposta recente è quella di sfruttare dinamiche caotiche e tecniche di elaborazione statistica dell'informazione per introdurre una nuova classe di generatori casuali. Una giustificazione intuitiva per questo approccio scaturisce dalla considerazione che molti dei fenomeni microcosmici impiegati nei generatori fisici potrebbero in realtà essere modellati in forma deterministica e che è semplicemente la loro estrema sensibilità alle condizioni iniziali a renderli impredicibili e, all'osservatore esterno, praticamente casuali. Da questa premessa risulta ovvio che piuttosto che sfruttare modelli di origine naturale difficilmente controllabili e maneggiabili possa essere più conveniente fare ricorso a modelli artificiali più semplici.

Oggi esistono modelli non-lineari tempo-discreti sensibili alle condizioni iniziali ed in grado di esibire comportamenti complessi che al contempo sono relativamente ben compresi da un punto di vista matematico. Un aspetto particolarmente interessante è che la loro applicabilità alla generazione di sequenze casuali può essere provata non solo euristicamente, ma anche formalmente. Grazie ad un'intuizione di Kalman è possibile studiarli e progettarli facendo riferimento a strumenti noti come le catene di Markov e i metodi della dinamica simbolica. Inoltre, è recente l'intuizione che alcuni di questi modelli possano essere implementati ri-utilizzando sezioni hardware di convertitori A/D. Ciò è fondamentale in un'ottica applicativa, visto che gli ADC sono tra i blocchi funzionali che hanno visto un miglior affinamento e costante investimento negli ultimi anni. Essi sono attualmente disponibili come core e blocchi IP. La possibilità di derivare generatori casuali ad elevate prstazioni proprio da questi blocchi è la garanzia che l'approccio proposto per il progetto di generatori casuali può produrre sorgenti a basso costo e adatte per l'embedding in sistemi complessi.

1.4 COBT: Complex Oscillation Based Test

L'OBT (Oscillation Based Test) è una tecnica emergente tra le soluzioni di verifica strutturale per circuiti analogici e mixed-mode. L'idea è di pilotare il blocco oggetto di test in una modalità di oscillazione auto-sostenuta in grado di evidenziare eventuali comportamenti scorretti. L'approccio è molto attraente grazie alla sua semplicità di fondo: in primo luogo fornisce l'eccitazione al circuito oggetto di test senza l'onere di dover ricorrere a sorgenti di segnale esterne; in secondo luogo, consente di evidenziare i malfunzionamenti a partire da misure effettuate su un numero di nodi estremamente limitato. Entrambi le caratteristiche rappresentano vantaggi importanti, in particolare se si fa riferimento alle difficoltà crescenti nell'ottenere accesso ai nodi interni nelle complesse architetture mixed-mode. Inoltre, molti blocchi funzionali possono essere resi adatti all'OBT con solo poche modifiche circuitali.

A fronte di tanti vantaggi, l'OBT presenta tuttavia delle limitazioni. La critica più frequente è data dal fatto che il regime di oscillazione utilizzato è quasi invariabilmente quello sinusoidale, cosicché il test del blocco funzionale avviene eccitandolo con un semplice tono. Più volte è stato evidenziato come questo tipo di eccitazione non consenta di mettere in evidenza tutti i possibili malfunzionamenti. In letteratura si trovano tecniche per ovviare a questi difetti con l'uso in sequenza di diverse frequenze di oscillazione.

In questo ambito, la ricerca di Sergio Callegari ha portato all'introduzione di tecniche di Complex OBT, in cui il blocco oggetto di test viene forzato in un regime di oscillazione caotico, in cui l'eccitazione è più ricca ed in grado di mettere in evidenza una maggiore quantità di difetti. La prima presentazione del concetto di COBT è avvenuta a maggio 2008 al congresso internazionale ISCAS in relazione alla validazione di convertitori analogico-digitali e ha riscosso notevole interesse.

2 Sensori

Dal 2002 Sergio Callegari opera nell'ambito del Laboratorio di Sensoristica Distribuita (LYRAS) del Centro di Ricerca sui Sistemi Elettronici per l'Ingegneria dell'Informazione e delle Telecomunicazioni Ercole De Castro (ARCES) dell'Università di Bologna. Il LYRAS è istituito presso la Facoltà di Ingegneria II dell'Università di Bologna e le sue attività sono concentrate su sensori per applicazioni fluidodinamiche ed aerospaziali e su sensori per applicazioni biologiche.

2.1 Sensori per applicazioni fluidodinamiche

La conoscenza dello sforzo normale e tangenziale cui è sottoposta una struttura immersa in un fluido è questione di primaria importanza in applicazioni meccaniche, aereonautiche e fluidodinamiche. Tale informazione può essere raccolta effettuando misure locali in punti significativi che idealmente costituiscono reticoli o mesh. A tal fine occorrono reti di sensori coordinati le cui letture, elaborate congiuntamente, consentono di risalire ad informazioni di alto livello quali gradienti di sforzo, portanza, attrito, punti di distacco dello strato limite, ecc. L'approccio richiede sensori di ridotte dimensioni (ipotesi di misura locale), a basso costo (ipotesi di elevata replicazione), dotati di intelligenza a bordo (ipotesi di coordinazione), e di elevata robustezza (ipotesi di applicazione su sistemi in condizioni operative).

Date le premesse è evidente l'interesse a definire classi di sensori intermedie tra macrosensori e sensori MEMS e a spostare l'enfasi dal singolo trasduttore verso sistemi di elaborazione capaci di gestire una pluralità di sonde.

2.2 Elaborazione di segnale proveniente da sensori fluidodinamici

Tutti i velivoli dispongono di sistemi-dati-aria che vengono impiegati per ricavare parametri per il controllo automatico del volo o la segnalazione al pilota. Informazioni particolarmente utili sono la velocità aria e gli angoli di assetto, quali angolo d'attacco e di sideslip.

Tradizionalmente i parametri di volo vengono ricavati con strumentazione ad hoc che comprende generalmente parti esterne alla sagoma del velivolo quali tubi di tubi di Pitot, wingbooms o nosebooms, deflettori auto-orientabili (vanes), ecc., ed è conseguentemente caratterizzata da un'elevata intrusività. Inoltre spesso sono necessari collegamenti pneumatici tra i diversi elementi della strumentazione o tra interno ed esterno del velivolo. Ciò è particolarmente indesiderabile nel caso di piccoli apparecchi senza pilota (UAV). Un'altra caratteristica della sensoristica convenzionale è quella di puntare ad una lettura il più possibile diretta dei parametri di volo, con una relazione uno-a-uno tra dispositivo di misura e parametro acquisito. Un tale approccio è chiaramente motivato dall'elevato costo degli strumenti e della loro installazione, ma non è privo di svantaggi.

Tali premesse giustificano l'interesse per approcci di misura radicalmente diversi, basati su misure fortemente indirette e sull'applicazione di un numero ridondante di sensori. L'idea è di ricavare contemporaneamente tutti i parametri di volo da un insieme omogeneo di letture variamente correlate con essi, stimandoli e disaccoppiandoli mediante tecniche di signal processing.

In particolare si mira ad applicare array di sensori di pressione o di flusso direttamente sulle superfici aerodinamiche proprie del velivolo (per esempio sulle superfici alari) e di ricavare indirettamente la velocità globale rispetto all'aria e l'angolo di attacco. La possibilità di impiegare misure di pressione per risalire ai parametri di volo mediante tecniche di stima è stata già sperimentalmente dimostrata (p.e., nell'ambito del lavoro di da Whitmore nei laboratori NASA). In letteratura, tuttavia, si fa generalmente riferimento a trasduttori convenzionali. Ad esempio si adottano vettori di orifizi praticati sulla fusoliera del velivolo, collegamenti pneumatici e macro-sensori. Ciò non consente di ottenere elevati livelli di ridondanza nell'acquisizione dati. Al contrario, l'uso di sensori a basso costo, superficiali e distribuiti può rendere accessibile una grande quantità di informazioni. Con ciò, diventa possibile rilassare i requisiti di accuratezza che singoli sensori devono soddisfare e contestualmente ottenere una miglior capacità di disaccoppiamento dei parametri, nonché la possibilità di identificare e correggere malfunzionamenti.

Allo stato attuale la ricerca ha prodotto alcuni primi prototipi di sensori a basso costo adatti alle applicazioni distribuite sopra-citate e realizzati con tecnologie Printed-Circuit-Board (PCB). Inoltre, tramite simulazione fluidodinamica, ha portato a verificare la praticabilità dell'approccio. Si è verificato che all'aumentare del livello di ridondanza si ha un'effettiva riduzione dei requisiti di accuratezza relativi alle singole unità di sensing a parità di qualità di lettura dei parametri di volo. La ricerca si sta attualmente concentrando su aspetti algoritmici, di identificazione di modello e di gestione del carico computazionale. Si intende inoltre praticare un approccio sperimentale in galleria del vento e verificare la praticabilità di tecniche di fault detection e fault tolerant operation.

Ultimi avvisi

Al momento non sono presenti avvisi.