ICT-News Dach

Supercomputing und große Datenmengen

Holm Landrock

Holm LandrockBottom Line (ICT-Anwenderunternehmen):

Supercomputing-Technik liefert jene sagenhafte Performance, die großartige Anwendungsszenarien erst möglich macht. Der Supercomputer passt heute nicht nur unter den Schreibtisch, sondern auf eine PCIe-Steckkarte, und dies nicht einmal zum Preis eines Toyota Corollas.

Bottom Line (ICT-Anbieterunternehmen):

Anbieter von Lösungen für Big-Data-Aufgaben haben demnächst eine weitere Alternative für die Hardware-Basis. Neben Standard-PCs für Hadoop, x85-Sclae-out-Clustern und GPU-Computing wird NEC eine Vektorrechner-Technologie auf den Markt bringen, die gerade für sehr große Datenlasten und komplexe Berechnungen reizvoll sein dürfte.

 

Es war einmal, zu einer Zeit, als die Welt noch nicht von Erbsenzählern mit einem geistigen Horizont eines Quartals geprägt war, da gab es auf der CeBIT noch Premieren. Ja, Sie lesen richtig: Forschung, Entwicklung und Produkt-Launches wurden früher so geplant, dass man das „Laatzener Volksfest“ für die Premiere von Weltneuheiten nutzen konnte. Heute ist die CeBIT doch eher ein Treffpunkt für Unternehmen, um ihre Kunden mit einer Portfolio-Präsentation zu beeindrucken. Klar, auch das Geschäft mit Laufkundschaft läuft noch, und auch in diesem Jahr gab es auf der CeBIT noch Neuigkeiten zu entdecken.

Wenn auch keine Weltpremiere, weil schon auf der Supercomputer-Konferenz 2016 (SC16) gezeigt, ist NECs Aurora eine richtig feine Sache und erlebte auf der CeBIT 2017 zumindest eine öffentliche Deutschland-Premiere.

Aurora ist der Codename für einen Vektorcomputer, der auf eine PCIe-Karte passt. Dabei handelt es sich nicht um eine Beschleunigerkarte, die für bestimmte Rechenoperationen hinzugeschaltet werden kann, sondern so gesehen um einen Vektorrechner für die Hosentasche. Richtig, ein Vektorrechner. Das ist eine Technik, die seit einigen Jahren von Scale-out-Konzepten wie x86-Clustern und GPU-Computing verdrängt wird. x86-Cluster leben von der Verteilung von ausführbarem Code auf zahlreiche Rechner durch eine extrem schnelle Verknüpfung der Knoten im Backbone. GPU-Computing lebt von der Verteilung einzelner, durchaus „spezieller“ Aufgaben auf viele kleine Recheneinheiten. Aurora kombiniert nun ihrerseits einen Vektorrechner und Verfahren aus x86-Servern. NEC positioniert Aurora für Aufgaben mit hohen Datenlasten und hohen Datendurchsatz – und dies müssen nicht nur Anwendungen sein, die man klassisch als „classified“ bezeichnet.

Im Kampf um die Spitze im Supercomputing hat China den Nachbarn Japan schon längst verdrängt. Das hat verschiedene Ursachen, darunter vor allem die Finanzierung, die durch die Kommunistische Partei in China eher unbegrenzt ist, die aber durch geschicktes Vorgehen auch vorteilhaft genutzt werden kann. Japan hat sich auch unter ganz anderen wirtschaftlichen Randbedingungen immer wieder zu technischen Höchstleistungen im Supercomputing aufschwingen können. Übrigens: Es ist ein Merkmal der japanischen Mentalität, nicht über ungelegte Eier zu gackern. Erst, wenn etwas fertig ist, wird es in Japan auch angepriesen. Die technischen Eckdaten eines Einzelsystems klingen mit einer Rechenleistung von 300 GFLOPS/Core und einem Datendurchsatz von 150 GBit/s schon einmal vielversprechend. Voraussetzung ist allerdings, dass NEC einen sauberen und komfortablen Pfad für die Adaption von Algorithmen mitliefert.

Da hat Nvidia den Japanern einiges voraus. Seit rund zehn Jahren werden Grafikprozessoren in Boards geschraubt, um geschickt konstruierten Code extrem schnell und parallel auszuführen. GPU-Computing hat eine hohe Marktreife und eine hohe Marktdurchdringung erlangt. Nvidia hat es durch die Etablierung von Curriculi für die CUDA-Programmiertechnik an vielen Hochschulen, besonders häufig in China, geschafft, ihr Konzept in den Köpfen vieler junger IT-Spezialisten zu etablieren. Dadurch gibt es für Nvidia schon zahlreiche Applikationen.

Die Markteinführung der Aurora-Systeme ist für das Frühjahr 2018 vorgesehen, aber wie man munkelt, soll es vorher schon einzelne Modelle geben. Erste Benchmarks sollen schon zur SC17 im Herbst vorliegen.

Der Markt für Supercomputing hat einen alten neuen Player, und die Idee einer neuen Form von Vektorcomputing ist originell. Besonders interessant wird die Entwicklung, weil das Supercomputing durch GPU-Computing oder Vektorcomputing nicht mehr ausschließlich im Verteidigungssektor oder im akademischen Elfenbeinturm, sondern für viele andere Big-Data-Aufgaben genutzt werden kann.