Computer: Überhuber und das Superhirn

Computer: Das Superhirn

Der Wiener Weltrekord im Supercomputing

Drucken

Schriftgröße

Supercomputer haben so ihre Macken. Da unterscheiden sie sich kaum von ihren kleinen Brüdern, die im Büro unter oder auf dem Schreibtisch stehen. Sie sind stur, bockig, stürzen gerne ab und lassen sich nur einen Bruchteil der theoretisch versprochenen Rechenleistung entlocken. Das weiß kaum einer so gut wie Christoph Überhuber. Der Wiener Mathematiker vom Institut für Analysis und Scientific Computing der Technischen Universität Wien ist Spezialist für eigensinnige Superrechner, die mit abertausend Prozessoren eigentlich wie schnittige Rechen-Ferraris in mathematische Steilkurven brausen könnten, sich dann aber doch benehmen, als würden sie im Standgas dahintuckern.

Dass er sein Geschäft versteht, wurde Überhuber von der Branche erst vor Kurzem wieder bestätigt. Bei der jüngsten Supercomputing-Konferenz in Tampa, Florida, wurde ihm der Gordon-Bell-Preis für die höchste je erreichte Rechenleistung verliehen – die renommierteste Auszeichnung im Bereich des Supercomputing. Überhubers Leistung: Gemeinsam mit seinen Kollegen Stefan Kral, Jürgen Lorenz sowie weiteren Mitarbeitern hat er naturwissenschaftliche Software für Blue Gene/L, den derzeit leistungsstärksten Rechner der Welt, so getunt, dass dessen 128.000 Prozessoren optimal genutzt wurden.

Während einer molekular-dynamischen Simulation von Materialeigenschaften unter Extrembedingungen konnten er und amerikanische Kollegen dem Rechner die weltmeisterliche Leistung abringen, pro Sekunde 207 Billionen Rechenschritte auszuführen. Eine solche Rechenleistung wäre, selbst wenn man alle Rechner Wiens über eine schnelle Internetverbindung zusammenschalten würde, nicht erreichbar. Für den Supercomputing-Experten Gundolf Haase vom Institut für Mathematik und Wissenschaftliches Rechnen der Universität Graz ist das Ergebnis „schlichtweg hervorragend“. Dafür seien „nicht nur Programmierkunst, sondern auch viel mathematische Finesse“ erforderlich, so Haase.

Koordinationsfrage. Schon seit Jahren beschäftigt sich Überhuber mit mathematischen Modellen und Methoden, mit denen Supercomputer beschleunigt werden können. „Man hat dabei ein logistisches Problem zu lösen, wie es im Prinzip auf jeder Baustelle auftritt“, sagt Überhuber. „Um ein Haus mit der doppelten Anzahl von Arbeitern in der Hälfte der Zeit bauen zu können, müssen die Arbeitsabläufe perfekt koordiniert werden. Sonst stehen einander die Leute nur im Weg.“

Kaum anders verhält es sich mit Supercomputern. Die ultraschnellen Rechner werden schon seit Jahren mit immer mehr Prozessoren ausgestattet, um die nötige Rechenleistung für hochkomplexe Simulationen aus den verschiedensten Bereichen der Physik, Chemie, Medizin oder Astronomie zur Verfügung stellen zu können. Aber nicht nur wissenschaftliche Forschungsinstitutionen arbeiten mit den massiven Rechnern: Automobilkonzerne leisten sich solche Geräte für die Durchführung elektronischer Crashtests, Flugzeughersteller testen das Strömungsverhalten ihrer Flieger im digitalen Windkanal, und Banken setzen Superrechner zur Verwaltung hunderttausender Kunden genauso ein wie für den sekundenschnellen Börsenhandel.

Das Problem, das bei all den hochgezüchteten Maschinen auftritt: Je mehr Prozessoren eingesetzt werden, desto mehr steigt der „Kommunikationsbedarf“, um den abertausenden Rechenbausteinen gleichzeitig ihre Maximalleistung zu entlocken. „Die Kunst besteht darin, sie dazu zu bringen, dass keiner auf das Ergebnis eines Rechenkollegen zu warten hat“, erklärt Überhuber.

Dass er gerade am derzeit schnellsten Rechner der Welt seine Kunst unter Beweis stellen konnte, hatte auch ein wenig mit Glück zu tun. Als der Computerkonzern IBM vom amerikanischen Energieministerium 1999 den Auftrag erhielt, mit dem neu zu entwickelnden Computersystem Blue Gene den prestigeträchtigen Weltmeistertitel im Supercomputing zu erringen, suchte man nach internationalen Experten und trat bald an Überhuber heran.

Die Aufgabe klang verlockend: Bis dahin waren die schnellsten Rechner der Welt erst mit ein paar tausend Prozessoren ausgestattet gewesen. Blue Gene aber sollte mit 128.000 Prozessoren – untergebracht auf 64.000 Computerchips – ein neues Rechenwunder werden. Schon in der Phase der Prototypentwicklung wurde Überhuber mit seinen Leuten in das „Blue Gene Core Team“ aufgenommen.

Geheimsache. Anfangs arbeitete man freilich noch unter recht abenteuerlichen Bedingungen. Aus Geheimhaltungsgründen durfte die Wiener Wissenschaftergruppe den Prototyp weder sehen noch einen einzigen Befehl eingeben. Über Jahre wurden daher die Programme per E-Mail von der TU Wien ins IBM-Forschungszentrum in Yorktown Heights im US-Bundesstaat New York gesendet, wo Entwicklungsingenieure dann den Rechner fütterten – und die Ergebnisse per E-Mail wieder nach Wien schickten. Erst gegen Ende der Entwicklungsphase bekamen die Wiener Log-in und Passwort. Die jahrelange Optimierungsarbeit hatte sich aber gelohnt. Seit 2005 das Spitzenmodell der Blue-Gene-Serie, Blue Gene/L, am kalifornischen Lawrence Livermore National Laboratory in Betrieb ging, führt dieser Supercomputer die Top 500 unangefochten an.

Die Erfahrung, die Überhuber bei der Entwicklung von Supercomputer-Software sammeln konnte, wird spätestens in einigen Jahren auch für konventionelle PCs und Laptops von größtem Interesse sein. Denn vor Kurzem hat die Computerindustrie bei der Hardware-Technik einen Schwenk vollzogen, dessen Auswirkungen für die Software-Entwicklung gar nicht hoch genug eingeschätzt werden können: Die bislang für den Normalverbraucher eher exotisch anmutende Parallelrechner-Hardware, wie sie bei Supercomputern eingesetzt wird, ist im Begriff, auf breiter Front auch in den heimischen Wohnzimmern Einzug zu halten.

2001 wurden erstmals auf einem Chip zwei parallel rechnende CPU-Kerne (Recheneinheiten) realisiert – bis dahin war Parallelcomputing zwar immer wieder als Zukunftslösung in Aussicht gestellt, auf breiterer Basis jedoch nie in die Tat umgesetzt worden. Heute gehören die parallel rechnenden CPU-Kerne, so genannte Dual-Core-Prozessoren, bereits zur Standardausstattung von PCs und Laptops. Dieses Jahr werden Geräte mit Quad-Core-Prozessoren, mit vier Recheneinheiten, folgen, und in den Entwicklungslabors der Chiphersteller wird intensiv an Multi-Core-Prozessoren mit 16, 32 und sogar 80 parallelen Recheneinheiten gearbeitet. In wenigen Jahren wird der „Supercomputer on a Chip“ Realität sein.

Mit ein Grund für die neue Liebe zu den Parallelcomputern ist ihr niedrigerer Energieverbrauch. Denn mit zwei langsameren Prozessoren kann mehr Rechenleistung erbracht werden als mit einem schnellen. Nach diesem Prinzip ist auch Blue Gene/L gebaut: Jeder seiner 128.000 Prozessoren bringt es nur auf eine Taktfrequenz von 700 Megahertz – jeder Sonderangebots-PC aus dem Supermarkt hat diese Leistung schon vor Jahren erbracht.

Zeitproblem. Mit der Parallelisierung des Homecomputermarktes haben sich Programmierer nun aber auch mit einem neuen Problem auseinanderzusetzen. „Anwenderprogramme wie Spiele oder Programme zur Video- und Bildbearbeitung werden nicht automatisch schneller, wenn sie auf einem Rechner mit mehr Prozessoren eingesetzt werden“, erläutert der Software-Entwickler Mario Dillmann von Intel. „Jetzt sind die Software-Entwickler gefordert.“

Zwar erkennen die neuesten Betriebsprogramme wie Windows Vista von Microsoft, Linux oder Unix bereits, wenn sie auf einem Dual-Core-Rechner installiert werden. Damit ist aber das Software-Problem noch lange nicht gelöst. Erst ein kleiner Teil der PC-Anwendersoftware ist für das neue Multi-Threading – das gleichzeitige Verarbeiten paralleler Programm-„Fäden“ – ausgelegt. „Entweder geht man das händisch mit sehr hohem Personalaufwand Programmzeile für Zeile durch, oder man setzt automatisierte Methoden ein“, sagt Überhuber. Und genau das ist derzeit sein Metier: Er überarbeitet gerade seine Methoden zur automatischen Programmerzeugung und Laufzeitoptimierung, die sich am Supercomputer Blue Gene/L bewährt haben, für die Vier- und Mehrkernrechner des PC-Massenmarktes.

Ob Normalanwender überhaupt eine ständig weiter steigende Rechenleistung benötigen, wird indes nicht mehr wirklich diskutiert. „Für die Textverarbeitung reichen herkömmliche Prozessoren zwar völlig aus“, meint der Mikrochip-Experte René Heinzl, „aber beispielsweise neue Verfahren der Sprach- und Gestikerkennung werden sicherlich neue Größenordnungen an Rechenleistung benötigen.“

Spielfaktor. Besonders der Spielemarkt treibt die Entwicklung hochleistungsfähiger Prozessoren voran. Für Sonys Playstation 3, die in Europa im März dieses Jahres auf den Markt kommen wird, hat ein 400-köpfiges Team von IBM, Toshiba und Sony mit einem Investitionsvolumen von 400 Millionen Dollar einen 9-Kern-Prozessor – den Cell Processor – entwickelt, auf den sich nicht nur Computerspieler freuen. „Ich werde der Erste sein, der sich die Playstation kauft“, sagt Computerexperte Haase, „denn die Spielekonsole ist programmierbar, und da lässt sich ein kleiner Supercomputer daraus bauen.“

Die Leistung des kleinen Wunderdings spiegelt am besten das so genannte Moore’sche Gesetz wider, wonach sich die Leistung von Computerchips alle 18 Monate verdoppelt. Der gerade einmal briefmarkengroße Cell-Chip vereinigt auf sich die Leistung von Computern, die vor zehn Jahren noch zu den schnellsten Rechnern Österreichs zählten und vollklimatisierte Säle füllten.

Seine enorme Leistung soll nun auch für Forschungsaufgaben nutzbar gemacht werden. Im Supercomputer-Projekt Roadrunner wird eine Kombination von 16.000 Playstation-Cell-Chips und 16.000 Standard-PC-Chips zum Einsatz kommen. Mit ihnen soll erstmals die Hürde von einer Billiarde Rechenoperationen pro Sekunde durchbrochen werden. Im deutschen IBM-Entwicklungslabor in Böblingen laufen bereits Entwicklungsarbeiten für diesen neuen Supercomputer. Auftraggeber ist das Los Alamos National Laboratory im US-Bundesstaat New Mexico, wo im Zweiten Weltkrieg die erste Atombombe entwickelt wurde. Auch jetzt noch wird dort die Entwicklung von Atombomben betrieben. Roadrunner soll bei der digitalen Simulation von Atombombentests eingesetzt werden. Ob die USA den prestigeträchtigen ersten Rang im Supercomputing aber damit lange halten können, ist freilich nicht gewiss: Denn das japanische Technologieministerium hat bereits einen dreistelligen Euro-Millionenbetrag lockergemacht, um das Los-Alamos-Projekt um das Zehnfache an Leistung zu überbieten.

Von Norbert Regitnig-Tillian