TRUSTY

 

Fonte di finanziamento:  SESAR JU-  Grant agreement ID: 101114838 -   Call: HORIZON-SESAR-2022-DES-ER-01

Durata: 2.5 anni -  settembre 2023/febbraio 2026

Sito di progetto: Trusty

TRUSTY è un progetto di ricerca che mira a sfruttare la potenza dell'Intelligenza Artificiale Spiegabile (XAI).

L'Intelligenza Artificiale Spiegabile (XAI) è un campo dell'intelligenza artificiale che si concentra sulla creazione di modelli e sistemi che non solo prendono decisioni, ma sono anche in grado di spiegare il loro funzionamento e le motivazioni dietro le loro scelte.

L'obiettivo del progetto è sviluppare nuove soluzioni basate su XAI nel contesto delle torri digitali remote (RDT) su compiti specifici di controllori di torre, come il monitoraggio delle vie di rullaggio, delle piste di decollo e atterraggio.

A differenza delle torri fisiche, dove l'operatore ha un accesso visivo diretto al traffico aereo, le torri digitali remote forniscono tali informazioni attraverso trasmissioni video. L'integrazione dell'XAI in queste torri mira a garantire che la sicurezza e l'efficienza restino pari a quelle delle torri tradizionali, rendendo al contempo i processi decisionali automatizzati trasparenti e interpretabili.

L'XAI sviluppata in TRUSTY permetterà agli operatori di comprendere non solo le decisioni prese in autonomia dal sistema, ma anche le logiche e i motivi che stanno alla base di tali decisioni. Questo è fondamentale per mantenere un alto livello di fiducia e controllo nei sistemi di automazione, specialmente in un contesto dove il livello di rischio è molto alto e l'interazione con l'IA deve essere totalmente chiara e comprensibile.

Il progetto svilupperà quindi un sistema XAI affidabile per le RDT che risponda non solo a requisiti di adattabilità, accuratezza e responsabilità, ma anche a quelli di trasparenza, per garantire un supporto decisionale sicuro e interpretabile.

Il team del Laboratorio Sapienza parteciperà ai test che saranno condotti in contesti reali sul campo per convalidare le prestazioni di sicurezza e affidabilità del sistema, rispondendo alle esigenze dei principali gruppi di utenti anche in ambienti simulati RDT.

Partecipanti:

Malardalens Universitet,

Deep Blue,

Ecole Nationale De L' Aviation Civile (ENAC),

Universita degli Studi Di Roma La Sapienza Laboratorio Neuroscienze Industriali F. Babiloni