- Circuiti e sistemi non lineari
- progetto e analisi di circuiti non lineari, specie
tempo-discreti, per la generazione di segnali con pre-assegnate
proprietà statistiche.
- Elaborazione dati e sensori per applicazioni
fluidodinamiche
- metodologie innovative per la stima di angoli di assetto e
velocità
- approccio indiretto alla misura di dati aria, con letture
effettuate "sulla pelle" del velivolo
- reti di sensori
- sensori capacitivi
- Codifiche impulsive per l'attuazione, la sintesi di segnale,
l'amplificazione audio e la conversione di potenza
- codifiche computazionalmente efficienti per coniugare un'ottima
resa energetica con bassa distorsione e basso livello di emissione
elettromagnetica
- True-Random Number Generators
- progetto di generatori di sequenze "veramente casuali", basati
su dinamiche caotiche e sul riuso di moduli circuitali di ADC
- Oscillation Based Test e Complex Oscillation Based Test:
- imposizione di regimi oscillatori, specie complessi, per la
validazione di circuiti analogici e mixed-mode.
L'attività di ricerca di Sergio Callegari è rivolta a vari
aspetti dell'elettronica e della microelettronica e coinvolge due
filoni di attività fondamentali: il primo legato all'analisi e
ottimizzazione di sistemi non lineari; il secondo alla
sensoristica.
1 Analisi, sintesi, ottimizzazione di sistemi
non-lineari
Dal 1996, Sergio Callegari si occupa di circuiti e sistemi
non-lineari. Recentemente l'attività si concentra in particolare
sui circuiti a dinamica complessa e sullo sfruttamento di
caratteristiche non lineari per l'ottimizzazione di sistemi
ingegneristici.
1.1 Modulazioni d'impulso e sistemi a commutazione
Questo filone di ricerca mira a sviluppare codificatori
innovativi per segnali di tipo impulsivo, binari o comunque
discreti nei livelli, con particolare riferimento all'attuazione,
alla sintesi di forme d'onda e all'amplificazione audio.
Tradizionalmente nell'ingegneria le modulazioni hanno
rappresentato prevalentemente un metodo per sfruttare le
caratteristiche dei mezzi trasmissivi. In termini più generali esse
costituiscono tuttavia un intero paradigma per la rappresentazione
dell'informazione, dove quest'ultima viene distribuita nel tempo
(ed eventualmente nello spazio) all'interno di segnali (o vettori
di segnali). In particolare le modulazioni d'impulso (come quelle
di larghezza, posizione, densità, frequenza —- rispettivamente PWM,
PPM, PDM e PFM) sfruttano tale proprietà per consentire ad un
segnale discreto nei valori (e quindi manipolabile con strumenti di
tipo digitale) di esibire proprietà di tipo analogico come la
capacità di essere direttamente processato da filtri continui e da
impianti fisici.
Tale proprietà viene utilizzata con successo nell'attuazione. Ad
esempio i regolatori e gli amplificatori a commutazione si
avvantaggiano di modulazioni di tipo impulsivo per controllare le
operazioni di un ponte di potenza che a sua volta amministra in
maniera discontinua e virtualmente priva di perdite l'erogazione di
potenza ad un carico, sia esso una macchina elettrica, un
altoparlante o un qualsiasi altro apparato elettrico. Tuttavia le
possibilità offerte dalle modulazioni di impulso non sono
generalmente sfruttate in pieno. In molti casi la capacità di
soddisfare gli obiettivi di regolazione di potenza è più un effetto
collaterale delle proprietà di un modulatore standard che non il
risultato deliberato di una strategia di codifica.
L'obiettivo della ricerca è di sviluppare nuove generazioni di
codificatori, simili nell'uso a quelli tradizionali e massimamente
compatibili con essi (così da favorirne una rapida accettazione),
ma basati su principi operativi radicalmente diversi. Piuttosto che
funzionare usando modulazioni standard, i codificatori saranno
esplicitamente progettati per esaltare specifici indici di
prestazione grazie ad un'estesa applicazione di tecniche di
ottimizzazione e all'individuazione di proprietà matematiche
salienti. In altri termini una volta assegnato un contenuto
informativo da rappresentare, una lista di vincoli ed una serie di
desiderata con cui esprimere un fattore di merito, la decisione
finale su come codificare l'informazione verrà prodotta attraverso
l'esplicito tentativo di ottimizzare l'indice di merito stesso.
Questo filone di ricerca ha dato vita al progetto «OpIMA»
(Optimized Impulsive Modulations for Actuation), che è stato
finanziato nell'ambito dei Progetti Strategici di Ateneo
dell'Università di Bologna ottenendo eccellenti valutazioni, e di
cui lo scrivente è coordinatore. Per ulteriori informazioni si veda
il sito
www.opima-project.it.
1.2 Circuiti non lineari a dinamica complessa
I sistemi caotici esibiscono una dinamica con caratteristiche
di frontiera tra comportamenti squisitamente deterministici
e comportamenti aleatori. Conseguentemente possono essere
efficacemente modellati sia in maniera classica (sistemi di
equazioni differenziali o alle differenze, ecc.) che in maniera
statistica, al pari di processi stocastici. A questo proposito va
osservato che nonostante la possibilità teorica di impiegare
modelli deterministici il comportamento aperiodico e la
proprietà di sensibilità alle condizioni iniziali rendono
impossibile prevederne il il comportamento futuro, e per molti
aspetti assimilano i sistemi caotici a sorgenti casuali.
Questo apparente paradosso ha reso già da lunga data i sistemi
caotici oggetto di speculazione ed interesse. Molto recente è
tuttavia lo studio di applicazioni ingegneristiche del caos e
l'approfondimento di tecniche di analisi e sintesi di circuiti
elettronici capaci di esibire comportamenti caotici. In effetti,
inizialmente, lo studio ingegneristico del caos è stato quasi
totalmente orientato al riconoscimento di comportamenti “strani” e
alla messa a punto di tecniche per evitarli. Solo in tempi recenti
è stata riconosciuta la possibilità di fruttuose applicazioni, con
il conseguente significativo orientamento della ricerca verso il
progetto.
Attualmente, gli ambiti applicativi del caos spaziano dalle reti
neurali alla realizzazione di memorie associative, dalla
definizione di schemi di telecomunicazioni a spettro espanso alla
crittografia, dal watermarking alla riduzione dell'interferenza
elettromagnetica, dalla simulazione alla generazione di chiavi
sicure di autenticazione, ecc. La ricerca dell'Ing. Sergio
Callegari investe direttamente alcuni di questi campi, mantenendo
un'ottica fortemente implementativa.
Alla base dell'attività scientifica sta l'uso di strumenti
matematici derivati dalla statistica e orientati all'osservazione
contemporanea di una pluralità di traiettorie. Questo approccio,
accolto solo molto di recente in ambito ingegneristico, consente
una comprensione quantitativa dei sistemi caotici (e in
particolare di quelli tempo-discreti) ed una loro caratterizzazione
molto profonda rispetto a quanto si può ottenere osservando singole
orbite. Chiaramente l'interesse è rivolto sia all'affinamento degli
strumenti che alla loro applicazione pratica. A questo riguardo, si
è scelto di affrontare problemi per i quali esistono già soluzioni
classiche, in modo da poter valutare effettivamente vantaggi e
svantaggi derivanti dall'uso di dinamiche caotiche. Particolare
importanza rivestono quelle applicazioni in cui gli indici di
merito sono già tradizionalmente espressi in termini probabilistici
(per esempio, comunicazione a spettro espanso, riduzione
dell'interferenza, ecc.).
Inizialmente l'attività scientifica dello scrivente è stata
rivolta a quelle applicazioni in cui le sorgenti di tipo caotico
possono sostituire efficacemente sorgenti pseudo-random
tradizionali. Per esempio, è stata realizzata una sorgente di
rumore per un modello stocastico di neurone e sono stati progettati
circuiti caotici capaci di generare sequenze binarie
equidistribuite e a ridotta auto-correlazione. Sono stati altresì
proposti circuiti per l'ottimizzazione di sistemi di
telecomunicazione a spettro espanso.
Le applicazioni più recenti riguardano la realizzazione di
circuiti caotici a partire da dispositivi programmabili general
purpose e da blocchi funzionali standard.
Lo studio riguardante la generazione e l'applicazione di segnali
a spettro espanso ha richiesto approfondimenti teorici e ha a sua
volta aperto nuovi filoni di ricerca, come ad esempio la già citata
ottimizzazione di modulazioni impulsive, nonché la sintesi di
sequenze casuali, la produzione di chiavi crittografiche, la
validazione di blocchi funzionali analogici.
1.3 Metodologie non convenzionali per la generazione di
sequenze casuali e di chiavi crittografiche e di
autenticazione
Nell'ambito dell'Information and Communication Technology, è
stato recentemente verificato come l'uso di dinamiche caotiche
possa consentire una sintesi assai efficiente di generatori
true-random, che costituiscono fondamentali primitive di progetto
per sistemi crittografici, di autenticazione e di sicurezza
informatica .
La generazione di sequenze binarie casuali è inerente
nell'applicazione di algoritmi quali il DSA, nella sintesi di
chiavi per algoritmi di crittografia a chiave pubblica/simmetrica,
nei moduli RSA e in molti algoritmi di comunicazione sicura. La
capacità delle tecniche crittografiche di resistere ad attacchi
basati sulla ricerca di pattern dipende in maniera critica
dalla qualità e sull'impredicibilità dei generatori random
impiegati, così che i generatori per le applicazioni crittografiche
devono generalmente rispondere a criteri molto più stringenti che
non quelli per altre applicazioni.
È generalmente riconosciuto che i generatori true-random possano
al più essere approssimati. Una sorgente ideale, dovrebbe infatti
essere in grado di produrre sequenze infinitamente lunghe e
composte di bit perfettamente indipendenti l'uno dall'altro,
con la proprietà che, riavviando la sorgente, non venga mai
rigenerata una sequenza già prodotta (proprietà di
non-ripetibilità. In pratica i generatori casuali cui si fa
riferimento ricadono in due categorie. Da una parte i cosiddetti
pseudo-RNG, dall'altra i physical-RNG. Gli pseudo-RNG
sono algoritmi deterministici capaci di espandere un seme iniziale
in lunghe sequenze binarie. Dall'altra parte, i physical-RNG sono
dispositivi che sfruttano fenomeni micro-cosmici che risultano in
osservabili macroscopici caratterizzabili come rumore (p.e.,
quantum noise, intervalli di emissione nei processi di decadimento
radioattivo, rumore termico e shot nei circuiti elettronici,
fluttuazioni di frequenza negli oscillatori, pattern di attività di
operatori umani, ecc.). Chiaramente gli pseudo-RNG sono i più
distanti dalle specifiche ideali: essendo basati su algoritmi a
memoria finita, esibiscono comportamenti periodici e generano
campioni correlati. Per la medesima ragione sono anche
completamente ripetibili. È chiaro che la conseguente possibilità
(presente almeno in potenza) di ricavare informazioni sul seme
dall'osservazione di sequenze di uscita è ben poco desiderabile in
applicazioni di sicurezza informatica e crittografia. Il loro
vantaggio sostanziale, tuttavia, è la natura algoritmica che li
rende facilmente implementabili nei circuiti digitali e nei sistemi
programmabili. I generatori fisici, d'altra parte, sono i migliori
approssimanti di sorgenti casuali. Sfortunatamente, richiedono
generalmente circuiti fortemente specializzati e un forte controllo
sulle condizioni ambientali e operative. Ciò li rende poco adatti
all'embedding in sistemi elettronici ed informatici.
Nonostante ciò, la crescente importanza delle applicazioni relative
alla sicurezza ha recentemente fatto sì che le maggiori aziende del
settori li stiano introducendo in sostituzione agli pseudo-RNG
nelle loro piattaforme hardware.
Ovviamente sarebbe desiderabile introdurre generatori capaci di
coniugare le prestazioni delle sorgenti fisiche con la possibilità
di essere realizzati a partire da blocchi circuitali standard e già
presenti nei sistemi elettronici. Recentemente la ricerca in questa
direzione ha prodotto alcune realizzazioni di un certo successo, in
particolare sfruttando blocchi periferici analogici di dispositivi
FPGA. Tuttavia, questi sistemi sono sempre caratterizzati da
data-rate molto bassi (nell'ordine delle decine di kbit/s) e ciò a
causa della necessità di fare riferimento a fenomeni rumorosi su
cui si ha poco o nessun controllo.
Una proposta recente è quella di sfruttare dinamiche caotiche e
tecniche di elaborazione statistica dell'informazione per
introdurre una nuova classe di generatori casuali. Una
giustificazione intuitiva per questo approccio scaturisce dalla
considerazione che molti dei fenomeni microcosmici impiegati nei
generatori fisici potrebbero in realtà essere modellati in forma
deterministica e che è semplicemente la loro estrema sensibilità
alle condizioni iniziali a renderli impredicibili e,
all'osservatore esterno, praticamente casuali. Da questa premessa
risulta ovvio che piuttosto che sfruttare modelli di origine
naturale difficilmente controllabili e maneggiabili possa essere
più conveniente fare ricorso a modelli artificiali più
semplici.
Oggi esistono modelli non-lineari tempo-discreti sensibili alle
condizioni iniziali ed in grado di esibire comportamenti complessi
che al contempo sono relativamente ben compresi da un punto di
vista matematico. Un aspetto particolarmente interessante è che la
loro applicabilità alla generazione di sequenze casuali può essere
provata non solo euristicamente, ma anche formalmente. Grazie ad
un'intuizione di Kalman è possibile studiarli e progettarli facendo
riferimento a strumenti noti come le catene di Markov e i
metodi della dinamica simbolica. Inoltre, è recente
l'intuizione che alcuni di questi modelli possano essere
implementati ri-utilizzando sezioni hardware di convertitori A/D.
Ciò è fondamentale in un'ottica applicativa, visto che gli ADC sono
tra i blocchi funzionali che hanno visto un miglior affinamento e
costante investimento negli ultimi anni. Essi sono attualmente
disponibili come core e blocchi IP. La possibilità di
derivare generatori casuali ad elevate prstazioni proprio da questi
blocchi è la garanzia che l'approccio proposto per il progetto di
generatori casuali può produrre sorgenti a basso costo e adatte per
l'embedding in sistemi complessi.
1.4 COBT: Complex Oscillation Based Test
L'OBT (Oscillation Based Test) è una tecnica emergente tra le
soluzioni di verifica strutturale per circuiti analogici e
mixed-mode. L'idea è di pilotare il blocco oggetto di test in una
modalità di oscillazione auto-sostenuta in grado di evidenziare
eventuali comportamenti scorretti. L'approccio è molto attraente
grazie alla sua semplicità di fondo: in primo luogo fornisce
l'eccitazione al circuito oggetto di test senza l'onere di dover
ricorrere a sorgenti di segnale esterne; in secondo luogo, consente
di evidenziare i malfunzionamenti a partire da misure effettuate su
un numero di nodi estremamente limitato. Entrambi le
caratteristiche rappresentano vantaggi importanti, in particolare
se si fa riferimento alle difficoltà crescenti nell'ottenere
accesso ai nodi interni nelle complesse architetture mixed-mode.
Inoltre, molti blocchi funzionali possono essere resi adatti
all'OBT con solo poche modifiche circuitali.
A fronte di tanti vantaggi, l'OBT presenta tuttavia delle
limitazioni. La critica più frequente è data dal fatto che il
regime di oscillazione utilizzato è quasi invariabilmente quello
sinusoidale, cosicché il test del blocco funzionale avviene
eccitandolo con un semplice tono. Più volte è stato evidenziato
come questo tipo di eccitazione non consenta di mettere in evidenza
tutti i possibili malfunzionamenti. In letteratura si trovano
tecniche per ovviare a questi difetti con l'uso in sequenza di
diverse frequenze di oscillazione.
In questo ambito, la ricerca di Sergio Callegari ha portato
all'introduzione di tecniche di Complex OBT, in cui il blocco
oggetto di test viene forzato in un regime di oscillazione caotico,
in cui l'eccitazione è più ricca ed in grado di mettere in evidenza
una maggiore quantità di difetti. La prima presentazione del
concetto di COBT è avvenuta a maggio 2008 al congresso
internazionale ISCAS in relazione alla validazione di convertitori
analogico-digitali e ha riscosso notevole interesse.
2 Sensori
Dal 2002 Sergio Callegari opera nell'ambito del Laboratorio di
Sensoristica Distribuita (LYRAS) del Centro di Ricerca sui Sistemi
Elettronici per l'Ingegneria dell'Informazione e delle
Telecomunicazioni Ercole De Castro (ARCES) dell'Università di
Bologna. Il LYRAS è istituito presso la Facoltà di Ingegneria II
dell'Università di Bologna e le sue attività sono concentrate su
sensori per applicazioni fluidodinamiche ed aerospaziali e su
sensori per applicazioni biologiche.
2.1 Sensori per applicazioni fluidodinamiche
La conoscenza dello sforzo normale e tangenziale cui è
sottoposta una struttura immersa in un fluido è questione di
primaria importanza in applicazioni meccaniche, aereonautiche e
fluidodinamiche. Tale informazione può essere raccolta effettuando
misure locali in punti significativi che idealmente costituiscono
reticoli o mesh. A tal fine occorrono reti di sensori
coordinati le cui letture, elaborate congiuntamente, consentono
di risalire ad informazioni di alto livello quali gradienti di
sforzo, portanza, attrito, punti di distacco dello strato limite,
ecc. L'approccio richiede sensori di ridotte dimensioni (ipotesi di
misura locale), a basso costo (ipotesi di elevata replicazione),
dotati di intelligenza a bordo (ipotesi di coordinazione), e di
elevata robustezza (ipotesi di applicazione su sistemi in
condizioni operative).
Date le premesse è evidente l'interesse a definire classi di
sensori intermedie tra macrosensori e sensori MEMS e a spostare
l'enfasi dal singolo trasduttore verso sistemi di elaborazione
capaci di gestire una pluralità di sonde.
2.2 Elaborazione di segnale proveniente da sensori
fluidodinamici
Tutti i velivoli dispongono di sistemi-dati-aria che vengono
impiegati per ricavare parametri per il controllo automatico del
volo o la segnalazione al pilota. Informazioni particolarmente
utili sono la velocità aria e gli angoli di assetto, quali angolo
d'attacco e di sideslip.
Tradizionalmente i parametri di volo vengono ricavati con
strumentazione ad hoc che comprende generalmente parti esterne alla
sagoma del velivolo quali tubi di tubi di Pitot, wingbooms o
nosebooms, deflettori auto-orientabili (vanes), ecc.,
ed è conseguentemente caratterizzata da un'elevata intrusività.
Inoltre spesso sono necessari collegamenti pneumatici tra i diversi
elementi della strumentazione o tra interno ed esterno del
velivolo. Ciò è particolarmente indesiderabile nel caso di piccoli
apparecchi senza pilota (UAV). Un'altra caratteristica della
sensoristica convenzionale è quella di puntare ad una lettura il
più possibile diretta dei parametri di volo, con una relazione
uno-a-uno tra dispositivo di misura e parametro acquisito. Un tale
approccio è chiaramente motivato dall'elevato costo degli strumenti
e della loro installazione, ma non è privo di svantaggi.
Tali premesse giustificano l'interesse per approcci di misura
radicalmente diversi, basati su misure fortemente indirette e
sull'applicazione di un numero ridondante di sensori. L'idea è di
ricavare contemporaneamente tutti i parametri di volo da un insieme
omogeneo di letture variamente correlate con essi, stimandoli e
disaccoppiandoli mediante tecniche di signal processing.
In particolare si mira ad applicare array di sensori di
pressione o di flusso direttamente sulle superfici aerodinamiche
proprie del velivolo (per esempio sulle superfici alari) e di
ricavare indirettamente la velocità globale rispetto all'aria e
l'angolo di attacco. La possibilità di impiegare misure di
pressione per risalire ai parametri di volo mediante tecniche di
stima è stata già sperimentalmente dimostrata (p.e., nell'ambito
del lavoro di da Whitmore nei laboratori NASA). In letteratura,
tuttavia, si fa generalmente riferimento a trasduttori
convenzionali. Ad esempio si adottano vettori di orifizi praticati
sulla fusoliera del velivolo, collegamenti pneumatici e
macro-sensori. Ciò non consente di ottenere elevati livelli di
ridondanza nell'acquisizione dati. Al contrario, l'uso di sensori a
basso costo, superficiali e distribuiti può rendere accessibile una
grande quantità di informazioni. Con ciò, diventa possibile
rilassare i requisiti di accuratezza che singoli sensori devono
soddisfare e contestualmente ottenere una miglior capacità di
disaccoppiamento dei parametri, nonché la possibilità di
identificare e correggere malfunzionamenti.
Allo stato attuale la ricerca ha prodotto alcuni primi prototipi
di sensori a basso costo adatti alle applicazioni distribuite
sopra-citate e realizzati con tecnologie Printed-Circuit-Board
(PCB). Inoltre, tramite simulazione fluidodinamica, ha portato a
verificare la praticabilità dell'approccio. Si è verificato che
all'aumentare del livello di ridondanza si ha un'effettiva
riduzione dei requisiti di accuratezza relativi alle singole unità
di sensing a parità di qualità di lettura dei parametri di volo. La
ricerca si sta attualmente concentrando su aspetti algoritmici, di
identificazione di modello e di gestione del carico computazionale.
Si intende inoltre praticare un approccio sperimentale in galleria
del vento e verificare la praticabilità di tecniche di fault
detection e fault tolerant operation.