Lavorare su fiducia e affidabilità dei sistemi autonomi e intelligenti
Il secondo work package di Astra vale 3,1 milioni di euro. Un finanziamento importante che servirà, come abbiamo detto nei precedenti approfondimenti, a creare un ambiente digitale d’eccellenza anche per le industrie spaziali, oltre che per le tecnologie già esistenti sulla terraferma.
In questo ragionamento è fondamentale un aspetto: l’affidabilità. E proprio su questo si concentra il secondo task del WP2, che non a caso è stato chiamato Trustworthiness of smart and autonomous systems (“Affidabilità dei sistemi intelligenti e autonomi”).
L’introduzione delle tecnologie di machine learning e intelligenza artificiale, infatti, comporta requisiti di affidabilità molto esigenti, a maggior ragione che parliamo di oggetti che si trovano nello spazio, e dunque in ambienti per natura molto diversi rispetto a quelli con cui l’essere umano è abituato a lavorare.
I ricercatori e le ricercatrici di Astra stanno tentando di utilizzare le tecniche di intelligenza artificiale nel software di bordo sul satellite Crystal Eye. Per questo motivo, in questi mesi, si stanno studiando nuove tecniche che possano garantire l’affidabilità di questi sistemi autonomi e intelligenti, in modo che gli stessi non violino requisiti di sicurezza e standard di qualità.
Non è un tema banale, quando si parla di intelligenza artificiale: “Il WP di cui sono responsabile è strutturato in diversi compiti che coprono la digitalizzazione del processo produttivo - racconta Patrizio Pelliccione, direttore dell’area Computer Science al Gran Sasso Science Institute - dallo sviluppo della piattaforme software di bordo all’architettura digitale del satellite”.
La fiducia e l’affidabilità di un sistema autonomo nello spazio si rafforzano anche lavorando sull’architettura del satellite. Il team di ricerca sta cercando di capire come ottenere “compartimenti stagni” software all’interno del satellite, in modo che ogni sua parte sia indipendente e funzionale al satellite stesso. E in questo modo ridurre al minimo possibile le criticità, oltre che i costi.
“A volte l’attenzione verso l’AI è anche esagerata”, confida il professore ordinario del Gssi. A oggi, infatti, l’intelligenza artificiale può essere utilizzata per i sistemi cosiddetti “critici”, ma poi la decisione finale delle criticità passa ancora per l’ingegneria umana.
I sistemi critici hanno diverse classi di criticità, in base alla controllabilità del sistema, che può essere bassa (e quindi generare impatti problematici o persino catastrofici, nel caso dell’aerospazio) o alta, ossia quel livello di controllabilità che mitiga le eventuali conseguenze negative. Il grado di affidabilità è insomma tutto in questo range.
“Stiamo neanche troppo lentamente arrivando un nuovo di AI, più controllabile del passato - evidenzia Pelliccione - una tecnologia software di qualità non deve essere solo di qualità, efficiente e manutenibile. Ma deve rispondere anche a criteri di explainability”.
L’explainabile AI è un concetto introdotto piuttosto recentemente nell’ambito del machine learning. L’obiettivo è chiarire quel che accade nella “black box” dei dati e degli algoritmi che elaborano i modelli di intelligenza artificiale.
Si tratta di un tema in qualche modo più ampio di considerazioni meramente tecnologiche. Si entra nel campo filosofico ed etico delle intelligenze artificiali: “Di recente ho contribuito alla scrittura di un articolo su come ingegnerizzare i sistemi con lo scopo di essere davvero a servizio dell’umanità. Va oltre le competenze strette di Astra, ma è fondamentale anche per quello che stiamo contribuendo a fare, ossia arrivare al punto che il sistema del satellite ci spieghi il razionale di una decisione frutto dell’intelligenza artificiale”, afferma il professore.
D’altro canto nello stesso AI Act, varato di recente a livello europeo, si ribadiscono i concetti di trasparenza, accountability e, appunto, explainability, ossia la spiegabilità di un’azione automatizzata: “È proprio quando capisci profondamente il perché di un’azione che inizi a costruire fiducia tra uomo e macchina”.