Abstract
L’interazione con l’ambiente e’ possibile grazie al coordinamento dei movimenti di occhi, mani e corpo. La nostra capacità di muoverci in modo efficiente deriva dall’abilità del nostro cervello di integrare sia informazioni sensoriali che motorie. Una delle sfide più affascinanti della ricerca di frontiera che lega neuroscienze e ingegneria è lo sviluppo di nuove soluzioni di alta tecnologia che permettono di controllare arti artificiali con il pensiero qualora queste abilità vengano perse. Un obiettivo fondamentale per lo sviluppo di questa tecnologia è migliorare la performance di arti e mani artificiali per arrivare in un prossimo futuro a protesi che possano eseguire movimenti di manipolazione in modo fluido e naturale e che possano essere direttamente controllati dal nostro cervello. Un aspetto necessario all’ottenimento di questo obiettivo e’ quello di processare una gran quantità di dati neurali e comportamentali e combinarli tra loro in modo da renderli leggibili ad algoritmi di machine learning in modo efficiente sia in termini di prestazione che in termini temporali. Finora, le cosiddette interfacce cervello macchina (BMI)permettono di controllare arti artificiali attraverso i segnali neurali, ma molti aspetti vanno ancora implementati. Infatti, per affinare il loro controllo in modo che le protesi possano eseguire movimenti analoghi a quelli umani è necessario fare sì che la BMI, che si pone tra cervello e protesi, riceva ed elabori correttamente le informazioni che il cervello normalmente usa per guidare un movimento: le informazioni sensoriali (visive e propriocettive) e comportamentali estrapolabili dai movimenti oculari.
Dettagli del progetto
Responsabile scientifico: Patrizia Fattori
Strutture Unibo coinvolte:
Dipartimento di Scienze Biomediche e Neuromotorie
Coordinatore:
ALMA MATER STUDIORUM - Università di Bologna(Italy)
Contributo totale di progetto: Euro (EUR) 30.000,00
Durata del progetto in mesi: 12