This page saved from Elektroniknet
1996 hatte sich Silicon Graphics den
Supercomputer-Hersteller Cray einverleibt. Die ehemalige
Cray-Entwicklungsabteilung wurde vor zwei Jahren von SGI
»freigekauft«. Seitdem arbeitet Cray wieder an neuen
Entwicklungen und stellte jetzt einen neuen
Supercomputer vor, der nächstes Jahr auf den Markt
kommen soll.
Angesichts einer schwindenden Kundenbasis im
Workstation-Bereich hatte Silicon Graphics sich voll auf
das Server-Geschäft konzentriert und wollte mit dem
Aufkauf von Cray die Cray-Kunden zum Umstieg auf die
Origin-Produktfamilie des eigenen Hauses bewegen.
Gleichzeitig wurden alle Entwicklungsaktivitäten an
weiteren Cray-Supercomputern gestoppt. Die
Entwicklungsmannschaft arbeitete fortan an
Verbesserungen der Origin-Server von Silicon Graphics.
Weiterhin hatte Cray einen sog. »Super-Server« auf der
Basis von Sun-Sparc-Mikroprozessoren im
Produktportfolio. Da Silicon Graphics auf
Mips-Prozessoren setzt und ein Produkt mit Prozessoren
eines Wettbewerbers nicht zum Image passte, verkaufte
SGI die Super-Server-Entwicklung für einen Spottpreis
von 13 Mio. Dollar an Sun. Sun entwickelte das Produkt
weiter und generierte damit binnen eines Jahres einen
Umsatz von über 1 Mrd. Dollar.
Auch die Umstellung der Cray-Kunden auf
Origin-Systeme verlief nicht so reibungslos wie geplant:
Ein harter Kern von Kunden blieb der
Cray-Vektorarchitektur treu. Nachdem Cray vollständig in
Silicon Graphics integriert worden war und Silicon
Graphics der Erfüllung der Wartungs- und Serviceverträge
von Cray überdrüssig wurde, entschloss man sich, die
ehemalige Cray-Entwicklungsabteilung mit immerhin 750
Mitarbeitern zu verkaufen. In der Epoche der New Economy
(1999 – 2000) kein Problem: Ein unbekanntes Unternehmen
namens Tera Computer mit nur 125 Mitarbeitern, aber
genügend Kapital kaufte das Know-how und übernahm die
alten Wartungsverträge. Ab sofort begann die neue Cray
Inc. (http://www.cray.com/) wieder mit
eigenen Hard- und Software-Entwicklungen, deren Ergebnis
der jetzt vorgestellte Supercomputer X1 ist.
USA verlieren Anschluss im
Supercomputing
Ganz aus eigener Kraft musste Cray die enormen
finanziellen Lasten der Entwicklungen allerdings nicht
tragen. Zwei Umstände kamen Cray zugute: Das
Atomwaffen-Teststoppabkommen und die Tatsache, dass die
USA die Krone im Supercomputing an Japan abgeben
mussten. Beides führte zu massiver staatlicher
Unterstützung für Supercomputing-Programme, von denen
neben Cray auch IBM, Intel, Silicon Graphics und Sun
profitierten. Seit dem Inkrafttreten des
Atomwaffen-Teststopps wird die Explosion von
Nuklearwaffen von den Amerikanern simuliert, wofür das
Energieministerium Aufträge für mehrere Supercomputer
vergeben hat (u.a. auch an Intel und IBM).
Für Aufsehen sorgte in den USA jedoch der sog.
»Earth-Simulator« – ein Großrechner, der überwiegend für
geografische und klimatologische Simulationen verwendet
wird und in Japan steht. Während der von IBM stammende
Atomtest-Simulator durchschnittlich 7300 Billionen
Rechenbefehle pro Sekunde verarbeitet, sind es beim
Earth-Simulator in Yokohama über 35000 Billionen Befehle
pro Sekunde. Dabei sind es nicht nur die 5000
Prozessoren in der NEC-Maschine, die dem Rechenwunder
seine Kraft verleihen, sondern es ist vor allem die
ausgeklügelte I/O-Architektur, die dafür sorgt, dass die
Prozessoren schnell genug mit Datennachschub versorgt
werden.
Der Erfolg Japans beruht aber nicht nur auf der
Technik: Die Japaner machen zur Bedingung, dass jeder,
der mit dem Earth-Simulator arbeiten will, dies vor Ort
tut. Ein Fernzugang nach der Methode »ich schicke euch
meine Daten, ihr lasst das ablaufen« ist nicht möglich.
Durch die persönliche Anwesenheit der Forscher findet in
Yokohama ein reger Wissensaustausch statt. Außerdem
gelang es den Japanern, bedeutende Rechenexperten aus
der ganzen Welt anzuwerben. Immerhin ein Fünftel der
dort ablaufenden Projekte ist nicht japanischen
Ursprungs. Auch dieses Phänomen trug dazu bei, dass die
Forschungsetats für Supercomputing in den USA gewaltig
aufgestockt wurden.
Warum eigentlich
Hochleistungsrechner?
Man mag einwenden, dass sich
Hochleistungsrechensysteme auch als Cluster – womöglich
aus billigen PCs – aufbauen lassen. Das ist prinzipiell
richtig, aber es hängt von der Anwendung ab, ob sich die
vielen Prozessoren auch sinnvoll nutzen lassen.
Aufgaben, die sich gut parallelisieren lassen, laufen
auf Cluster-Systemen mit guter Performance. Aufgaben,
bei denen auf Ergebnisse parallel laufender
Rechenvorgänge zurückgegriffen werden muss, die also auf
viel Interprozessor-Kommunikation angewiesen sind,
können durch Cluster nur wenig beschleunigt
werden.
Im Vergleich zu einem Pentium-Prozessor ist die
pure Rechenleistung eines Supercomputer-Prozessors gar
nicht so beeindruckend. Bei der neuen Cray X1 sind vier
»Multistream-Prozessoren« und vier Cache-Speicher mit
insgesamt 2 Mbyte auf einem Multichipmodul vereint.
Diese vier Prozessoren erbringen eine Rechenleistung von
12,8 GFLOPS, während ein Pentium 4 rund 3 GFLOPS
berechnet. Allerdings erbringt der Cray-Prozessor seine
Leistung schon bei 800 MHz. Der Pentium erbringt diese
Leistung bei 3 GHz und nur dann, wenn das Programm
vollständig aus dem Cache abläuft. Der Cray-Prozessor
ist mit 800 MHz getaktet und verfügt über eine sehr
aufwendige Speicheranbindung und Vernetzung mit anderen
Prozessoren. Hierin liegt der eigentliche Schlüssel für
die Anwendungs-Performance eines
Supercomputers.
Jeweils vier Multchipmodule sind auf einer
Platine zusammengefasst. Die Multichipmodule werden von
IBM im CMOS-Prozess hergestellt. Die vier Module greifen
auf einen gemeinsamen Speicher zu (shared Memory), der
wiederum mit dem Rambus-Arbeitsspeicher verbunden ist.
Auf einer Platine befinden sich insgesamt 128
Rambus-Kanäle. Ein Arbeitsplatz-PC hat hingegen einen
Speicher-Kanal, ein PC-Server zwei Kanäle. Eine einzige
Multiprozessor-Platine des Cray-Systems ist mit einer
Bandbreite von 200 Gbyte/s an den Speicher angebunden.
Die Verbindung zu den anderen Multiprozessorkarten wird
über 32 Netzwerkverbindungen, diejenige zu den
Massenspeichern über vier externe I/O-Kanäle
hergestellt. Dank dieser enormen Bandbreiten skaliert
das Cray-System so gut.
Die ersten fünf Probeinstallationen der Cray X1
stehen bereits bei Kunden. Mit der Aufnahme des
Produktivbetriebs rechnet Cray aber erst gegen Mitte
2003. Systeme in Europa stoßen vor allem in der
Automobilindustrie, bei Geo- und Bio-Wissenschaftlern
sowie Klimaforschern auf Interesse. Der Einstandspreis
für ein X1-System liegt bei 2,5 Millionen Dollar.
Realistische Projekte bewegen sich bei 6 bis 8 Millionen
Dollar und haben eine Projektlaufzeit von zwei bis drei
Jahren, in denen die Rechenleistung kontinuierlich
ausgebaut wird.
Joachim
Kroll, Elektronik 01/2003
|