Alessandro Romeo
Rilevamento e Mitigazione di Allucinazioni in Large Language Models = Detecting and Mitigating Hallucinations in Large Language Models.
Rel. Flavio Giobergia, Claudio Savelli. Politecnico di Torino, Corso di laurea magistrale in Ingegneria Informatica (Computer Engineering), 2025
|
Preview |
PDF (Tesi_di_laurea)
- Tesi
Licenza: Creative Commons Attribution Non-commercial No Derivatives. Download (1MB) | Preview |
Abstract
Questa tesi affronta il problema del rilevamento e della mitigazione delle allucinazioni nei modelli linguistici di grandi dimensioni. Partendo dalla baseline MALTO sviluppata per la competizione Mu\-SHROOM, proponiamo una pipeline a livello di token che opera esclusivamente in inferenza. L'approccio combina le probabilità prodotte da un modello di riferimento, punteggi di Natural Language Inference e controlli opzionali di fluenza o rigenerazione locale tramite un modello GPT-2 leggero. Ogni token riceve un punteggio di allucinazione e, se necessario, viene mascherato e rigenerato. La valutazione avviene sul set di validazione Mu\-SHROOM composto da 50 esempi, senza partizioni di training o validation. Confrontiamo tre varianti.
La versione No Fluency sfrutta solo probabilità e NLI, ottenendo la miglior Intersection\-over\-Union
Relatori
Anno Accademico
Tipo di pubblicazione
Numero di pagine
Corso di laurea
Classe di laurea
Aziende collaboratrici
URI
![]() |
Modifica (riservato agli operatori) |
