polito.it
Politecnico di Torino (logo)

Rilevamento e Mitigazione di Allucinazioni in Large Language Models = Detecting and Mitigating Hallucinations in Large Language Models

Alessandro Romeo

Rilevamento e Mitigazione di Allucinazioni in Large Language Models = Detecting and Mitigating Hallucinations in Large Language Models.

Rel. Flavio Giobergia, Claudio Savelli. Politecnico di Torino, NON SPECIFICATO, 2025

[img] PDF (Tesi_di_laurea) - Tesi
Licenza: Creative Commons Attribution Non-commercial No Derivatives.

Download (1MB)
Abstract:

Questa tesi affronta il problema del rilevamento e della mitigazione delle allucinazioni nei modelli linguistici di grandi dimensioni. Partendo dalla baseline MALTO sviluppata per la competizione Mu\-SHROOM, proponiamo una pipeline a livello di token che opera esclusivamente in inferenza. L'approccio combina le probabilità prodotte da un modello di riferimento, punteggi di Natural Language Inference e controlli opzionali di fluenza o rigenerazione locale tramite un modello GPT-2 leggero. Ogni token riceve un punteggio di allucinazione e, se necessario, viene mascherato e rigenerato. La valutazione avviene sul set di validazione Mu\-SHROOM composto da 50 esempi, senza partizioni di training o validation. Confrontiamo tre varianti. La versione No Fluency sfrutta solo probabilità e NLI, ottenendo la miglior Intersection\-over\-Union. La variante Fluency introduce una soglia di perplessità con un modello GPT-2 e ottiene la correlazione più alta con le annotazioni umane. L'opzione "Mask" con l'utilizzo di un modello piccolo (GPT-2) rigenera in modo mirato gli span sospetti; è conservativa ma consente correzioni immediate. L'analisi qualitativa evidenzia errori tipici come scambi di entità o affermazioni prive di supporto, mentre i risultati quantitativi mostrano i compromessi tra copertura, fluidità del testo e costo computazionale. La tesi si chiude delineando possibili sviluppi futuri, tra cui modelli NLI multilingui, mascheramento guidato dall'attenzione, dataset più ampi e strumenti di visualizzazione per aumentare la fiducia negli output dei modelli.

Relatori: Flavio Giobergia, Claudio Savelli
Anno accademico: 2025/26
Tipo di pubblicazione: Elettronica
Numero di pagine: 60
Soggetti:
Corso di laurea: NON SPECIFICATO
Classe di laurea: Nuovo ordinamento > Laurea magistrale > LM-32 - INGEGNERIA INFORMATICA
Aziende collaboratrici: Politecnico di Torino
URI: http://webthesis.biblio.polito.it/id/eprint/37753
Modifica (riservato agli operatori) Modifica (riservato agli operatori)