Hardware-Beschleuniger für geräteinternes Training und neuronale Sucharchitektur
- Forschungsthema:On-device Neural Architecture Search and Training Accelerator
- Typ:Masterarbeit
- Betreuung:
Hardware-Beschleuniger für geräteinternes Training und neuronale Sucharchitektur
Kontext
Die Fähigkeit, sich an die sich verändernde Umgebung anzupassen, ist ein Schlüsselaspekt der künftigen integrierten KI-Systeme. Derzeitige Ansätze für KI am Rande der Welt decken nur die Optimierungstechniken der Inferenzphase der neuronalen Netze ab, wobei das Training und die Optimierung des Netzes an die Cloud delegiert werden. Trotz der Verfügbarkeit von Rechenressourcen wirft das Training in der Cloud Bedenken hinsichtlich des Datenschutzes auf und führt zu einer Abhängigkeit von der Internetverbindung. Die Möglichkeit, das neuronale Netz lokal auf dem Gerät anzupassen, reduziert dagegen den Datenverkehr und ermöglicht einen autonomen Betrieb der integrierten KI-Systeme. Diese Arbeit zielt darauf ab, die Hardware-Architekturen für das Training auf dem Gerät und die Suche nach neuronalen Architekturen zu untersuchen.
Ziele
In dieser Arbeit wird der Stand der Technik im Bereich des geräteinternen DL-Trainings und der NAS-Ansätze erforscht. Basierend auf diesen Ergebnissen wird die Methodik für den Aufbau hybrider Beschleuniger für das Training neuronaler Netze und die Architektursuche entwickelt. Die Leistung des Beschleunigers wird anhand klassischer Computer-Vision-Datensätze und der FPGA-basierten Plattform evaluiert. Schließlich wird die FPGA-basierte Lösung mit dem Server und dem eingebetteten GPU-Ziel verglichen, und auf der Grundlage dieser Ergebnisse wird eine Analyse der Anwendbarkeit der vorgeschlagenen Methodik durchgeführt.
Voraussetzungen
- Erfahrung mit Hardwarebeschreibungssprachen wie VHDL oder Verilog
- Erfahrung mit Deep Learning und einem der DL-Frameworks wie PyTorch oder Keras/TensorFlow
- Erfahrung mit Python und C++