The writing on the wall

Jahrzehntelang schien alles klar: Die Anzahl der Transistoren pro Chip verdoppelte sich entsprechend der vom Intel-Mitbegründer Gordon Moore gefundenen Regel etwa alle zwei Jahre, und entsprechend wuchs auch die Rechenleistung exponentiell: Auf den Intel 80286 mit über 100 000 Transistoren und rund 2,66 MIPS im Jahr 1982 folgte nach etwas mehr als drei Verdoppelungen im Zwei-Jahres-Turnus 1989 der 80486 mit über einer Million Transistoren und der zehnfachen Rechenleistung. Zehn Jahre später war es regelkonform der Pentium III mit knapp 10 Millionen Transistoren und über 2000 MIPS. Über eine Milliarde Transistoren zählte man auf dem Dualcore Athlon FX 60 von AMD, der es 2006 vorhersehbar auf fast 20 000 MIPS brachte. Heutige Prozessoren wie der Intel Core i7 2600K in Sandy-Bridge-Technologie haben den halben Weg zu den 200 000 MIPS bereits zurückgelegt.

Die Supercomputer, deren Leistung man eher in Floating-Point- statt Integer-Operationen pro Sekunde misst, hielten sich genauso an das Gesetz: 1997 der erste Teraflop-Rechner, 2008 fiel die Petaflop-Barriere, ab 2018 wird der erste Exaflop-Computer erwartet. Das bekräftigte gerade erst die International Supercomputing Conference in Hamburg. Sicher ist das aber nicht, und spätestens danach wird die Bilderbuchkarriere der weltschnellsten Rechner womöglich abreißen, denn überall zeichnen sich gewichtige Probleme ab.

Nicht zuerst bei den Transistoren, die werden das Tempo noch eine Weile halten, obwohl sich auch da ein Menetekel andeutet: Die weitere Miniaturisierung wird in die Dimension atomarer Strukturen führen, die prinzipiell nicht mehr verkleinerbar sind. Man wird sich etwas Intelligenteres einfallen lassen müssen.

Wahrscheinlich aber bereits zuvor stößt die Entwicklung beim Stromverbrauch an eine harte Grenze. In heutiger Technik würde ein Exaflop-Rechner 400 MW verbrauchen, so viel wie ein durchschnittliches konventionelles Kraftwerk leistet. Ein Großteil dieser Energie verwandelt sich in Wärme, die abgeführt werden muss. Das wäre momentan weder mach- noch finanzierbar. Die Zielgröße liegt bei maximal 20 MW pro Superrechner. Um sie zu erreichen, wird man sich etwas Intelligenteres einfallen lassen müssen.

Ähnliches gilt für den Platzbedarf. Schon der erste Petaflop-Rechner brauchte rund 300 Racks, obwohl er noch um den Faktor 1000 vom Exaflop-Fernziel entfernt war. 300 000 Racks könnte man nirgendwo aufstellen. Als Obergrenze gelten höchstens 500. Man wird sich etwas Intelligenteres einfallen lassen müssen.

Eine weitere Herausforderung ist die Programmierbarkeit und Zuverlässigkeit. Es wird darum gehen, zig Millionen Cores, Milliarden gleichzeitiger Operationen, Dutzende Petabyte Hauptspeicher zu managen und damit klarzukommen, dass sich in diesem gigantischen System wahrscheinlich jede Sekunde irgendwo ein Fehler ereignet. Gleichzeitig muss man diese unvorstellbare Rechenkraft auf die Straße bringen, damit sie nutzbar wird. Ein Rechner-Exot, den nur sein Guru programmieren kann, ist sinnlos. Heutige Tools und Softwarestacks helfen bei einer Aufgabe dieser Größenordnung nicht weiter. Man wird sich etwas Intelligenteres einfallen lassen müssen.

Schließlich geht es auch um den Preis. Aktuelle Spitzensysteme kosten mehrere Hundert Millionen Dollar. Die Stunde Rechenzeit hat dadurch den Gegenwert eines Kleinwagens. Billiger wird es nicht. Wer soll das bezahlen? Und wofür? Sequoia, der schnellste Computer der Welt, rechnet heute an der Simulation von Atomwaffentests.

Man wird sich etwas Intelligenteres einfallen lassen müssen.

 

www.facebook.com/adminmagazin

www.twitter.com/admagz

comments powered by Disqus