Il progetto intitolato "XAI: Science and Technology for the eXplanation of AI decision making" ha come proponente principale Fosca Giannotti (KDD Lab) dell"Istituto di Scienza e Tecnologie dell"informazione "A. Faedo" (Isti) del Cnr di Pisa.
Il progetto indaga i meccanismi che regolano le cosiddette "black box", le scatole nere nell'intelligenza artificiale basate su algoritmi di apprendimento automatico (machine learning e deep learning), oggi utilizzate nei processi automatici che utilizzano grandi quantità di dati per supportare decisioni. La sfida consiste nel mettere a punto un metodo innovativo per comprendere come si formano i risultati di tali applicazioni arrivando a "correggere" possibili bias che possono alterare le conclusioni: "Il nostro progetto vuole realizzare una tecnologia che renda comprensibili alle persone le decisioni suggerite dagli algoritmi che le tecniche di intelligenza artificiale apprendono dai dati. Questa tecnologia permetterà di rispondere a domande del tipo: perché mi è stato rifiutato il mutuo? perché a questo paziente è stato diagnosticato il diabete? come possiamo essere sicuri che il pilota automatico della macchina a guida autonoma non faccia errori nel riconoscere ostacoli? In conclusione, vorremmo eliminare la frase "è colpa dell'algoritmo", e quindi far si che si producano sistemi "autonomi" la cui logica di decisione sia comprensibile, verificabile e magari di aiuto alle persone per capire cosa eventualmente c'è da cambiare se si vuole", commenta la ricercatrice.