Simon Garske
Gleitkommadarstellungen mit geringer Wortbreite für Maschinelles Lernen auf FPGAs
Abstract
In dieser Arbeit zu Gleitkommadarstellungen mit geringer Wortbreite für Maschinelles
Lernen auf FPGAs wird auf die Herausforderungen durch die geringere Wortbreite
eingegangen und auf Möglichkeiten, diese umzusetzen. Durch geringere Wortbreiten
als 32 Bit können sowohl Speicherplatz gespart werden, als auch Datenübertragung
beschleunigt und Energieeffizienz gesteigert werden, da für die Recheneinheiten weniger
Platz benötigt wird, was Ressourcensparender und schneller ist. Die Probleme, die
durch die geringe Anzahl an Bits auftreten, können durch verschiedene Verfahren minimiert
werden. Da maschinelles Lernen versucht, für einen bestimmten Datensatz ein
möglichst gutes Ergebnis mit einer bestimmten Genauigkeit zu erzielen, lässt sich auch
mit geringer Wortbreite ein Ergebnis entwickeln, welches hinsichtlich ihrer Genauigkeit
dem Ergebnis der standardmäßigen 32 Bit Wortbreite nur minimal unterlegen ist. Im
Anschluss wird die Bibliothek "Templatised Soft Floating-Point" genauer betrachtet
und mit Hilfe dieser Bibliothek eine eigene Implementierung mit geringen Wortbreiten
vorgenommen. Es folgt die Auswertung der Implementierung mit Beurteilung
der Ressourcennutzung und deren Vergleich mit anderen Implementierungen aus der
Literatur.