polito.it
Politecnico di Torino (logo)

Integration of Uncertainty into Explainability Methods to Enhance AI Transparency in Brain MRI Classification

Letizia Quattrocchio

Integration of Uncertainty into Explainability Methods to Enhance AI Transparency in Brain MRI Classification.

Rel. Massimo Salvi, Silvia Seoni. Politecnico di Torino, Corso di laurea magistrale in Ingegneria Biomedica, 2024

[img]
Preview
PDF (Tesi_di_laurea) - Tesi
Licenza: Creative Commons Attribution Non-commercial No Derivatives.

Download (3MB) | Preview
Abstract:

Le prestazioni che gli strumenti dell'intelligenza artificiale raggiungono sono così sorprendenti che questi possono essere applicati in vari settori sia di ricerca che di sviluppo. Uno dei vari campi in cui si suddivide l'intelligenza artificiale è il deep learning che fa uso di reti neurali, algoritmi che tentano di emulare il comportamento del cervello umano. Queste reti neurali sono in grado di estrapolare una serie di schemi dai dati che si vogliono analizzare e forniscono il risultato dell'analisi come output. La capacità di analizzare dati che si presentano in varie forme, come segnali, dati numerici, e anche immagini, ha permesso alle reti neurali di ampliare la ricerca scientifica soprattutto nel campo della medicina. Nonostante la varietà di applicazioni e i risultati che riescono ad ottenere, le reti di deep learning sono anche definite "scatole nere". L'elaborazione dei dati e le caratteristiche specifiche utilizzate per prendere una decisione, infatti, sono in gran parte nascosti o non trasparenti agli esseri umani. Questo comportamento ha delle conseguenze sui risultati che la rete propone provocando difficoltà di interpretazione, imprevedibilità e poca affidabilità. Proprio per questi motivi, negli anni si sono sviluppate delle tecniche di spiegabilità, anche denominate Explainable Artificial Intelligence, che cercano di rendere più trasparente il funzionamento delle reti neurali fornendo spiegazioni comprensibili. In parallelo sono stati sviluppati anche metodi che indagano l'incertezza nelle predizioni che la rete fornisce, quantificando quanto è possibile fidarsi del modello. La spiegabilità e l'incertezza sono due aspetti che non sono mai stati combinati nello studio delle reti neurali. In questo lavoro di tesi sono stai ideati una serie di metodi che permettono di indagare la variabilità e l'incertezza delle caratteristiche più importanti utilizzate dalla rete neurale per prendere una decisione. La rete neurale utilizzata è la Cross-Covariance Image Transformer (XCiT) che ha il compito di classificare una serie di immagini di risonanza magnetica del cervello in quattro classi distinte: no tumore, tumore ipofisario, meningioma e glioma. I metodi di spiegabilità applicati sono Grad-CAM e Score-CAM, due metodi visivi che forniscono delle mappe chiamate "heatmap" in cui si evidenziano quali parti di un'immagine sono state determinanti per la classificazione. Monte Carlo Dropout è invece il metodo impiegato per stimare l'incertezza che, nella fase di inferenza, spegne casualmente alcuni neuroni della rete ottenendo varie previsioni per ogni immagine fornita come input. Il primo obiettivo di questo lavoro è stato individuare quale tra i metodi ideati possiede le prestazioni migliori; il secondo obiettivo è stato caratterizzare il comportamento complessivo della rete neurale analizzando quali regioni delle immagini sono variabili e quali sono incerte, e quanto incerta risulta la predizione finale. Sfruttando il metodo ideato è stato anche possibile individuare quale tra i due metodi di spiegabilità utilizzati fornisce heatmap più robuste e predizioni meno incerte. Nonostante il metodo ideato possieda delle limitazioni, le applicazioni di questo lavoro si possono estendere a qualsiasi rete neurale e a qualsiasi immagine nell'ambito della classificazione ottenendo non solo chiarezza nelle heatmap e quantificazione dell'affidabilità delle predizioni, ma anche un'indicazione se i metodi di spiegabilità implementati sono compatibili con la rete neurale utilizzata.

Relatori: Massimo Salvi, Silvia Seoni
Anno accademico: 2024/25
Tipo di pubblicazione: Elettronica
Numero di pagine: 119
Soggetti:
Corso di laurea: Corso di laurea magistrale in Ingegneria Biomedica
Classe di laurea: Nuovo ordinamento > Laurea magistrale > LM-21 - INGEGNERIA BIOMEDICA
Aziende collaboratrici: NON SPECIFICATO
URI: http://webthesis.biblio.polito.it/id/eprint/32809
Modifica (riservato agli operatori) Modifica (riservato agli operatori)