Eugenio Ressa
An Efficient Hardware Accelerator for Class Incremental Deep Neural Networks.
Rel. Guido Masera, Alberto Marchisio. Politecnico di Torino, Corso di laurea magistrale in Ingegneria Informatica (Computer Engineering), 2023
|
Preview |
PDF (Tesi_di_laurea)
- Tesi
Licenza: Creative Commons Attribution Non-commercial No Derivatives. Download (1MB) | Preview |
Abstract
Il machine learning (ML) e le reti neurali (NN) hanno grosse potenzialità in molti campi, tra cui quello della classificazione di immagini, suoni, segnali, ecc. Alcuni task di riconoscimento e classificazione, come lo speech e l’image recognition, non sarebbero possibili con algoritmi classici, ma solo tramite algoritmi di ML. Tuttavia, gli algoritmi di ML sono molto pesanti da un punto di vista computazionale, di consumo di memoria e di energia, che non li rendono quindi adatti per sistemi embedded, i quali sono equipaggiati con processori dell’ordine del Mhz e pochi MB di memoria. Per questo motivo, molti acceleratori HW sono stati sviluppati, che riescono a mantenere un basso consumo di potenza e a ridurre i tempi di calcolo di decine di volte.
Ciononostante questi acceleratori sono statici nelle task che possono eseguire, nel senso che non possono essere allenati ulteriormente per imparare e quindi incrementare il numero di task eseguibili, senza dimenticare i task precedentemente imparati
Relatori
Anno Accademico
Tipo di pubblicazione
Numero di pagine
Corso di laurea
Classe di laurea
Aziende collaboratrici
URI
![]() |
Modifica (riservato agli operatori) |
