Letizia Quattrocchio
Integration of Uncertainty into Explainability Methods to Enhance AI Transparency in Brain MRI Classification.
Rel. Massimo Salvi, Silvia Seoni. Politecnico di Torino, Corso di laurea magistrale in Ingegneria Biomedica, 2024
|
PDF (Tesi_di_laurea)
- Tesi
Licenza: Creative Commons Attribution Non-commercial No Derivatives. Download (3MB) | Preview |
Abstract: |
Le prestazioni che gli strumenti dell'intelligenza artificiale raggiungono sono così sorprendenti che questi possono essere applicati in vari settori sia di ricerca che di sviluppo. Uno dei vari campi in cui si suddivide l'intelligenza artificiale è il deep learning che fa uso di reti neurali, algoritmi che tentano di emulare il comportamento del cervello umano. Queste reti neurali sono in grado di estrapolare una serie di schemi dai dati che si vogliono analizzare e forniscono il risultato dell'analisi come output. La capacità di analizzare dati che si presentano in varie forme, come segnali, dati numerici, e anche immagini, ha permesso alle reti neurali di ampliare la ricerca scientifica soprattutto nel campo della medicina. Nonostante la varietà di applicazioni e i risultati che riescono ad ottenere, le reti di deep learning sono anche definite "scatole nere". L'elaborazione dei dati e le caratteristiche specifiche utilizzate per prendere una decisione, infatti, sono in gran parte nascosti o non trasparenti agli esseri umani. Questo comportamento ha delle conseguenze sui risultati che la rete propone provocando difficoltà di interpretazione, imprevedibilità e poca affidabilità. Proprio per questi motivi, negli anni si sono sviluppate delle tecniche di spiegabilità, anche denominate Explainable Artificial Intelligence, che cercano di rendere più trasparente il funzionamento delle reti neurali fornendo spiegazioni comprensibili. In parallelo sono stati sviluppati anche metodi che indagano l'incertezza nelle predizioni che la rete fornisce, quantificando quanto è possibile fidarsi del modello. La spiegabilità e l'incertezza sono due aspetti che non sono mai stati combinati nello studio delle reti neurali. In questo lavoro di tesi sono stai ideati una serie di metodi che permettono di indagare la variabilità e l'incertezza delle caratteristiche più importanti utilizzate dalla rete neurale per prendere una decisione. La rete neurale utilizzata è la Cross-Covariance Image Transformer (XCiT) che ha il compito di classificare una serie di immagini di risonanza magnetica del cervello in quattro classi distinte: no tumore, tumore ipofisario, meningioma e glioma. I metodi di spiegabilità applicati sono Grad-CAM e Score-CAM, due metodi visivi che forniscono delle mappe chiamate "heatmap" in cui si evidenziano quali parti di un'immagine sono state determinanti per la classificazione. Monte Carlo Dropout è invece il metodo impiegato per stimare l'incertezza che, nella fase di inferenza, spegne casualmente alcuni neuroni della rete ottenendo varie previsioni per ogni immagine fornita come input. Il primo obiettivo di questo lavoro è stato individuare quale tra i metodi ideati possiede le prestazioni migliori; il secondo obiettivo è stato caratterizzare il comportamento complessivo della rete neurale analizzando quali regioni delle immagini sono variabili e quali sono incerte, e quanto incerta risulta la predizione finale. Sfruttando il metodo ideato è stato anche possibile individuare quale tra i due metodi di spiegabilità utilizzati fornisce heatmap più robuste e predizioni meno incerte. Nonostante il metodo ideato possieda delle limitazioni, le applicazioni di questo lavoro si possono estendere a qualsiasi rete neurale e a qualsiasi immagine nell'ambito della classificazione ottenendo non solo chiarezza nelle heatmap e quantificazione dell'affidabilità delle predizioni, ma anche un'indicazione se i metodi di spiegabilità implementati sono compatibili con la rete neurale utilizzata. |
---|---|
Relatori: | Massimo Salvi, Silvia Seoni |
Anno accademico: | 2024/25 |
Tipo di pubblicazione: | Elettronica |
Numero di pagine: | 119 |
Soggetti: | |
Corso di laurea: | Corso di laurea magistrale in Ingegneria Biomedica |
Classe di laurea: | Nuovo ordinamento > Laurea magistrale > LM-21 - INGEGNERIA BIOMEDICA |
Aziende collaboratrici: | NON SPECIFICATO |
URI: | http://webthesis.biblio.polito.it/id/eprint/32809 |
Modifica (riservato agli operatori) |