Jona Scholz, M. Sc.

  • Engesserstr. 5
    76131 Karlsruhe

Forschung

<Text wird generiert, bitte warten...>
Neuromorphic Computing 

Spiking Neural Networks erweitern klassische künstliche neuronale Netzwerke um eine zeitliche Dimension. Anstatt einmaliger Aktivierungen modellieren sie die Dynamik von Neuronen, die über die Zeit hinweg kurze Aktionspotentiale (Spikes) aussenden können. Ähnlich wie im Gehirn sind dabei immer nur bestimmte Teile des Netzwerks aktiv. Dieses Verhalten eröffnet neue Möglichkeiten für rekurrente Architekturen, alternative Lernmethoden und besonders energieeffiziente Inferenz.

<Text wird generiert, bitte warten...>
Lernen in neuronalen Netzwerken

Das menschliche Gehirn lernt neue Konzepte erstaunlich schnell und kann sich flexibel auf unbekannte Aufgaben einstellen. Im Vergleich dazu brauchen moderne neuronale Netzwerke meist riesige Datenmengen fürs Training und sind beschränkt auf eng begrenzte Anwendungsfelder. Das wirft grundlegende Fragen auf: Liegt es an den gängigen Architekturen wie Multilayer Perceptrons oder Transformern? Sind sie vielleicht zu unflexibel, um über verschiedene Bereiche hinweg zu generalisieren? Brauchen wir ganz neue Trainingsansätze jenseits von Backpropagation und Gradient Descent? Oder haben wir mit den bestehenden Methoden eigentlich schon das richtige Werkzeug, es fehlt nur noch ein entscheidendes Teil im Gesamtbild?