In unseren Gehirnen sorgen etwa 86 Milliarden Nervenzellen dafür, dass wir verglichen mit dem übrigen Tierreich außergewöhnliche geistige Leistungen vollbringen können. Diese Neuronen sind durch Synapsen miteinander verbunden und kommunizieren durch elektrische und chemische Signalübertragung in einem riesigen Netzwerk miteinander.
Schon seit Jahrzehnten entwerfen Forschende künstliche neuronale Netze, die wie das menschliche Vorbild "lernen" können, indem sich die Verbindungen zwischen einzelnen Neuronen unterschiedlich stark ausbilden. Welche Neuronen mit welchen besonders gut kommunizieren, hängt von der jeweiligen Aufgabenstellung ab, für die das neuronale Netz trainiert wurde. Es kann nach dem Training zum Beispiel Objekte erkennen, Bilder in bestimmte Klassen einteilen oder selbstständig Texte erstellen.
Heutige neuronale Netze haben laut Dr. Serhiy Yanchuk, Leiter der Arbeitsgruppe "Angewandte Dynamische Systeme" an der TU Berlin, zwei Beschränkungen: Zum einen der hohe Stromverbrauch von neuronalen Netzen, die in Supercomputern simuliert werden. So zeigte eine Studie der Universität von Kopenhagen, dass nur ein einziger Trainingszyklus so viel Strom verbrauchen kann, dass dies dem CO2-Äquivalent von 700.000 mit dem Auto gefahrenen Kilometern entspricht. Auf der anderen Seite gibt es auch Grenzen in Bezug auf die Anzahl von Hardwareneuronen und die Verbindungen zwischen ihnen. Während es in Supercomputern bereits möglich ist, Milliarden von Neuronen zu programmieren, erreichen die jüngsten Hardware-Implementierungen bisher nur eine Anzahl von einigen Tausend künstlichen Nervenzellen.
Die Lösung für diese beiden Herausforderungen könnte nach der Idee der TU-Forscher darin liegen, nur ein einzelnes Neuron zu verwenden, das durch
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.