Der 1964 von Seymour Cray präsentierte „CDC 6600" gilt als erster Hochleistungsrechner, aber es gab auch vielversprechende Vorgänger. Und nach drei Jahrzehnten Dominanz von Crays Unternehmen kam Konkurrenz ins Spiel. Eine Geschichte der Supercomputer.
Die Geschichte der Supercomputer lässt sich nur richtig erzählen, wenn zuvor auf die Entwicklung der ersten einfachen Rechner eingegangen wird, aus denen im Laufe der Zeit dann die immer leistungsstärkeren Maschinen hervorgingen. Die heute weltweit verbindliche und zweimal jährlich aktualisierte „TOP500"-Liste geht auf die Vorarbeit des Mannheimer Informatikers Hans-Werner Meuer aus den 1980er- und 1990er-Jahren zurück. Dabei sind fünf der zehn schnellsten Rechner auf dem Globus laut der aktuellsten Aufstellung derzeit in den USA installiert. Nur der Spitzenreiter „Fugaku" des japanischen Technologiekonzerns Fujitsu ist am Riken Center for Computational Science in Kōbe am Laufen. Auch Deutschland ist in den Top Ten vertreten – mit dem im Forschungszentrum Jülich arbeitenden Supercomputer „Juwels". Gemeinhin wird der Entwurf des britischen Mathematikers Charles Babbage namens „Analytical Engine" aus dem Jahr 1837 als Vorläufer des Computers angesehen.
Schnellster Rechner der Welt ist aktuell in Japan
Für die Steuerung der Maschine waren programmierbare Lochkarten unter Verwendung des Dezimalsystems vorgesehen. Doch obwohl die Idee für die damalige Zeit absolut bahnbrechend war, sollte die Maschine nie fertiggestellt werden. Auch der US-amerikanische Bergbauingenieur Herman Hollerith verwendete für sein 1880 entwickeltes und 1889 zum Patent angemeldetes Gerät die Lochkartentechnologie. Es konnte seine Funktionstüchtigkeit bei zwei amerikanischen Volkszählungen beweisen, da die Maschine rund doppelt so schnell rechnen konnte wie ein Mensch. Hollerith gilt daher heute vielen als Urvater der Datenverarbeitung und kann als Großvater von International Business Machines (IBM) angesehen werden. Aus seinem Unternehmen Tabulating Machine Company sollte der spätere IT-Gigant hervorgehen, der 1928 und 1931 mit „IBM 301" und „IBM Columbia Difference Tabulator" auf Lochkarten basierte Rechner präsentierte.
Der nächste Meilenstein in der Entwicklung hin zum ersten richtigen Computer wurde während des Zweiten Weltkriegs gelegt, wobei Technik-Historiker sich heute darüber streiten, wem die Ehre der Erstentdeckung gebührt. In Deutschland wird der Titel meist für den „Z3" des Berliner Bauingenieurs Konrad Zuse aus dem Jahr 1941 reklamiert. Der erste in der Praxis funktionierende, frei mittels Lochstreifen programmierbare und auf dem Binärsystem (Verwendung der Ziffern Null und Eins) basierende Digitalrechner der Welt. 1946 kam der 27 Tonnen schwere Koloss „Eniac" des Physikers John William Mauchly und des Ingenieurs John Presper Eckert zur Ermittlung der Zerstörungskraft von Wasserstoffbomben zum Einsatz. Apropos Koloss: In Großbritannien wurde vom englischen Ingenieur Tommy Flowers 1943 der erste programmierbare elektronische Digitalcomputer der Welt entwickelt: „Colossus" enträtselte die von der deutschen Wehrmacht zur chiffrierten Kommunikation eingesetzte Lorenz-Schlüsselmaschine erfolgreich.
In den ersten Jahren nach Kriegsende wurde elektronischen Computern in der Öffentlichkeit keinerlei größerer Nutzen oder Zukunftsfähigkeit attestiert. Doch der technologische Fortschritt sollte zu einem grundlegenden Umdenken führen. Elektronenröhren wurden zwischen 1947 und 1956 durch einen weniger Strom benötigenden und daher weniger Wärme entwickelnden Transistor ersetzt. Der US-amerikanische Elektroingenieur Jack Kilby entwickelte 1958 einen integrierten Schaltkreis, womit letztlich die Basis für immer kleinere und leistungsfähigere Chips gelegt wurde. Zusätzlich entwickelte IBM 1956 das erste Festplattenlaufwerk.
IBM stieg bereits 1953 ganz dick ins Computergeschäft ein und machte den „IBM 650" bis 1962 mit 2.000 verkauften Exemplaren zum ersten massenproduzierten Computer der Welt. Er war für kommerzielle Kunden gedacht, während der 1952 lancierte Großrechner „IBM 701" der erste rein für wissenschaftliche Zwecke entwickelte Großrechner des Hauses war. Er läutete den Übergang zu den vollelektronischen Computern bei IBM ein. Ihm zur Seite wurde 1954 der „IBM 704" für Geschäftskunden gestellt, der als erster Großrechner die sogenannte Gleitkommaarithmetik beherrschte. Für die US-Regierung wurde ein 275 Tonnen schwerer Mega-Rechner mit 55.000 Elektronenröhren konzipiert. Mit dem Ungetüm „Sage", das eine Fläche von 2.000 Quadratmetern benötigte, wurde das erste computergesteuerte Luftverteidigungssystem in Betrieb genommen.
Geschwindigkeit war bei den IBM-Großrechnern bis dahin nicht das wesentliche Kriterium, sondern sie sollten weitgehend für kaufmännische Anwendungen möglichst viele Daten verarbeiten können. Dennoch galt der „IBM 7030 Stretch" zwischen 1961 und 1964 als schnellster Rechner der Welt. Mit ihm wurde für die Rechenoperationen pro Sekunde, die nun Gleitkommaoperationen pro Sekunde genannt wurden, auch ein neues Umrechnungszeitalter für Computer-Geschwindigkeiten geboren. Denn seine 1.000.000 OPS wurden fortan in der Einheit Flops (Akronym für „Floating Point Operations Per Second") angegeben. In diesem Fall entsprach das einem Megaflop (inzwischen wird längst über Gigaflops, Teraflops und Petaflops hinaus das Stadium Exaflops angepeilt).
Überraschenderweise war die Nachfrage nach dem schnellen „IBM 7030 Stretch" so gering, dass der Marktführer die Produktion einstellte. Wohingegen ein Newcomer namens Seymour Cray von „Control Data Corporation" (CDC) in Minnesota genau in diese scheinbare Computer-Geschwindigkeitsnische einstieg. Er brachte 1964 den ersten Supercomputer der Geschichte auf den Markt, der trotz seines astronomischen Preises von sieben Millionen Dollar kommerziell erfolgreich war. Der Elektrotechniker und Mathematiker Cray hatte IBM regelrecht vor den Kopf gestoßen, sein Rechner war dreimal so schnell wie die „IBM 7030 Stretch". Weil Cray sein Konzept ganz explizit auf Geschwindigkeit ausgerichtet hatte, konnte er IBM locker den Nimbus des schnellsten Computers der Welt wegschnappen und die weltweite Computer-Speed-Spitze bis zum Ende der 80er-Jahre behaupten.
China möchte mit „Tianhe-3" einen neuen Rekord aufstellen
Schon bis dahin hatte sich das vom US-amerikanischen Ingenieur und Intel-Mitbegründer Gordon Moore formulierte sogenannte Mooresche Gesetz bestätigt, wonach sich die Zahl der Rechenbausteine eines Computers etwa alle zwei Jahre verdoppeln sollten – und damit im gleichen Maße auch Geschwindigkeit und Leistungsfähigkeit. Damit hatte Moore die spätere Entwicklung von Computerchips ziemlich gut vorausgesagt. Aber in jüngster Zeit wurden physikalische Grenzen erreicht. Die Steigerung der Rechenleistung ließ trotz Clustern oder Beowulf-Clustern nach, weil die Transistoren inzwischen größenmäßig schon im Nanometerbereich angekommen sind. An dieser Stelle könnte die Quantenphysik ins Spiel kommen – Stichwort Quantencomputer.
In den 1990er-Jahren übernahmen nach dem Konkurs des Unternehmens von Crays vor allem die Japaner die Spitzenplätze im „TOP500"-Ranking. NEC (Nippon Electric Company), Fujitsu und Hitachi lösen sich an der Top-Position regelmäßig ab. 2002 präsentierte NEC mit dem „Earth Simulator" ein Monstrum, für das eine Halle errichtet werden musste – schließlich benötigte der Riesenrechner, mit dem Weltklimamodelle erforscht werden sollten, 3.250 Quadratmeter Platz. Auch die kalifornische Intel Corporation setzte Geschwindigkeitsmaßstäbe: Mit ihren Computern „Intel ASCI Red/9152" und „Intel ASCI Red/9632" wurden 1997 beziehungsweise 1999 die Billionen- beziehungsweise Teraflops-Schwelle überschritten. Spät meldete sich in den Nullerjahren IBM zurück. IBM-Meilensteine waren der „Blue Gene/L" aus dem Jahr 2004 oder der „IBM Roadrunner" aus dem Jahr 2008. In den Zehnerjahren hat auch China gezeigt, dass man Supercomputer bauen kann, etwa 2010 mit dem „Tianhe-1A" oder 2016 mit „Sunway TaihuLight". Derzeit ist „Tianhe-3" in der Entwicklung – er wird womöglich der erste Exaflops-Computer sein.