Hardware für Hyperscaler und KI-Lösungen

Nvidia bekräftigt seinen Anspruch auf die KI-Marktführerschaft

30. Mai 2023, 12:25 Uhr | Lars Bube
20 Tonnen schweres KI-Monster: Nvidia DGX GH200
© Nvidia

Neben einer Lösung für realistischere Dialoge in Computerspielen zeigt Nvidia auf der Computex potente Hardware rund um Künstliche Intelligenz wie den neuen KI-Chip Grace Hopper sowie einen darauf basierenden Supercomputer für das effiziente Training von KI-Modellen.

Das offizielle Motto der Computex lautet dieses Jahr „Together we create“, ein besonderer Fokus liegt dabei auf dem Trendthema Künstliche Intelligenz. Wie wichtig die entsprechenden Technologien bei den digitalen Schaffensprozessen der Gegenwart und Zukunft sind, betonte zum Auftakt Nvidia-CEO Jensen Huang in seiner Keynote und präsentierte denn auch direkt die jüngsten KI-Neuheiten seines Unternehmens. Wichtigster Neuzugang ist dabei der Hochleistungschip „Grace Hopper“. Er vereint 72 speziell angepasste Grace Arm-CPU-Kerne, einen Hopper Grafikprozessor sowie 96 GByte HBM3- (High Bandwith Memory) und 512 Gigabyte LPDDR5X-Speicher auf einer Platine. Die Besonderheit daran: Die Rechenwerke und ihre Speicher sind alle mit einer Geschwindigkeit von einem TByte pro Sekunde miteinander verbunden und können zudem fast genauso schnell mit weiteren Grace-Hopper-Modulen kommunizieren.

Um zu zeigen, was damit möglich wird, präsentierte Nvidia-Chef Huang dem Publikum in Taiwan mit dem „DGX GH200“ auch gleich noch einen darauf aufbauenden KI-Supercomputer. Der enthält auf mehrere Serverracks verteilt insgesamt 256 der neuen Grace-Hopper-Module, 32 Mal so viele wie der Vorgänger DGX A100 in seiner maximalen Ausbaustufe. Durch die schnelle Verbindung über 36 übergeordnete NVLink-Switches auf dem zweiten Level arbeiten sie alle wie eine einzelne ultraschnelle GPU mit 144 TByte Grafikspeicher zusammen. Laut Nvidia soll das System bei KI-Aufgaben eine Rechenleistung von einem ExaFLOP erreichen und damit so manchem deutlich größeren Superrechner der letzten Jahre das Wasser reichen können. Zudem kann dadurch das Aufspalten der Datenmengen (Sharding) entfallen, was die Berechnung großer Modelle, wie sie gerade beim KI-Training benötigt werden, wesentlich beschleunigt. Mit diesem rund 20 Tonnen schweren Monster, in dem etwa 240 Kilometer Glasfaserverbindungen verbaut sind, untermauert Nvidia eindrucksvoll seinen Anspruch auf die Hardware-Speerspitze der KI-Entwicklung. Nicht umsonst sollen Nvidia zufolge unter anderem Google, Microsoft und Meta bereits entsprechende DGX GH200 für ihre Rechenzentren geordert haben.

Anbieter zum Thema

zu Matchmaker+
Nvidia Grace Hopper
Der Superchip Grace Hopper steht im Zentrum von Nvidias KI-Vorstoß
© Nvidia

Aber auch eine Stufe darunter will Nvidia den Ton angeben und hat für schlankere Workloads die „MGX“-Architektur entwickelt. Dank Referenzdesigns für mehr als 100 verschiedene Server kann sie von anderen Herstellern genutzt werden und soll sich so als Standard etablieren. Aktuell haben bereits mehrere große Serveranbieter wie Supermicro solche MGX-Systeme auf Basis von Grace Hopper angekündigt, schon bald soll es aber auch MGX-Server mit anderer Hardware geben. Für die passende Anbindung der KI-Systeme ans Netzwerk soll die neue Spectrum-X-Plattform sorgen. Sie kombiniert die im Herbst vorgestellten Spectrum-4-Switches mit BlueField-3-DPUs und einer neuen Beschleunigungssoftware und soll so eine fast doppelt so hohe KI-Gesamtleistung und Energieeffizienz erreichen. Konkret verspricht der Hersteller dadurch für den Spectrum 4 Switch mit 64 800GbE-Ports einen Gesamtdurchsatz von über 50 Terabit pro Sekunde bei einer Latenz von nur 20ns unter Volllast.

Last, but not least hatte Huang dann mit der Avatar Cloud Engine (ACE) noch eine praktische KI-Anwendung im Köcher. Dahinter verbirgt sich eine Lösung, die Computercharakteren (NPC) in Spielen intelligentere und variantenreichere Antworten und Reaktionen samt einer dazu passenden Mimik einhauchen soll. Bisher hatten sich die Games-Designer hier auf vorgefertigte Reaktionsmöglichkeiten beschränken müssen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu NVIDIA Corporate

Weitere Artikel zu Rechenzentrum

Weitere Artikel zu Netzwerk-Zubehör

Matchmaker+