NVIDIA: Der erste Ampere-GPU von Nvidia ist für Rechenzentren und KI konzipiert

NVIDIA: Der erste Ampere-GPU von Nvidia ist für Rechenzentren und KI konzipiert

15. Mai 2020 0 Von Horst Buchwald

NVIDIA: Der erste Ampere-GPU von Nvidia ist für Rechenzentren und KI konzipiert

New York, 15.5.2020

Jensen Huang, CEO von Nvidia, hat gestern die Ampere-GPU-Architektur der nächsten Generation vorgestellt – den A100. Dieser erste Grafikprozessor, der Ampere verwendet, wurde für wissenschaftliche Berechnungen, Cloud-Grafiken und Datenanalysen entwickelt und wird vor allem in Rechenzentren eingesetzt.
Huang machte keinen Hehl daraus, das dieses Produkt ein Ergebns der Veränderungen am Markt ist, wonach durch die Pandemie eine enorm gestiegenen Nachfrage nach Cloud Computing. Jensen Huang,: „Diese Dynamik ist wirklich ziemlich gut für unser Rechenzentrumsgeschäft … Ich gehe davon aus, dass Ampere bemerkenswert gut abschneiden wird. Es ist unser bester Rechenzentrums-GPU, der je hergestellt wurde, und er profitiert von fast einem Jahrzehnt unserer Rechenzentrumserfahrung“.
Der A100 verfügt über mehr als 54 Milliarden Transistoren und ist damit der weltweit größte 7-nm-Prozessor. „Das ist im Grunde genommen fast an der theoretischen Grenze dessen, was heute in der Halbleiterfertigung möglich ist“, erklärt Huang. „Der größte Chip, den die Welt je hergestellt hat, und die größte Anzahl von Transistoren in einer Rechenmaschine, die die Welt je hergestellt hat“, erklärt Huang.

Nvidia baut seine Tensor-Kerne aus, um sie für Entwickler leichter nutzbar zu machen, und der A100 wird außerdem 19,5 Teraflops FP32-Leistung, 6.912 CUDA-Kerne, 40 GB Speicher und 1,6 TB/s Speicherbandbreite bieten. All diese Leistungen werden jedoch nicht in die neueste Version von Assassin’s Creed einfließen.
Stattdessen kombiniert Nvidia diese GPUs zu einem gestapelten KI-System, das seine Supercomputer in Rechenzentren auf der ganzen Welt antreiben wird. Ähnlich wie Nvidia seine frühere Volta-Architektur zur Entwicklung der Tesla V100- und DGX-Systeme nutzte, kombiniert ein neues DGX A100 AI-System acht dieser A100-GPUs zu einem einzigen riesigen Grafikprozessor.

Das DGX A100-System verspricht 5 Petaflops Leistung dank dieser acht A100, und sie werden mit Nvidias NVLink der dritten Generation kombiniert. Durch die Kombination dieser acht GPUs stehen 320 GB GPU-Speicher mit 12,4 TB/s Speicherbandbreite zur Verfügung. Nvidia bietet außerdem 15 TB internen NVMe-Speicher der Gen4-Generation für KI-Schulungsaufgaben. Forscher und Wissenschaftler, die die DGX A100-Systeme verwenden, werden sogar in der Lage sein, Arbeitslasten auf bis zu 56 Instanzen aufzuteilen und kleinere Aufgaben auf die leistungsstarken GPUs zu verteilen.
Nvidias jüngste Übernahme des Server-Netzwerkanbieters Mellanox im Wert von 6,9 Milliarden US-Dollar kommt ebenfalls ins Spiel, da das DGX A100 neun Netzwerkschnittstellen mit 200 Gb/s für eine bidirektionale Bandbreite von insgesamt 3,6 Tb/s pro Sekunde umfasst. Da sich moderne Rechenzentren an immer vielfältigere Arbeitslasten anpassen, wird sich die Technologie von Mellanox für Nvidia als immer wichtiger erweisen. Huang beschreibt Mellanox als das überaus wichtige „Bindegewebe“ in der nächsten Generation von Rechenzentren.
„Wenn man sich ansieht, wie moderne Rechenzentren aufgebaut sind, sind die zu bewältigenden Arbeitslasten vielfältiger denn je“, erklärt Huang. „Unser Ansatz für die Zukunft besteht darin, uns nicht nur auf den Server selbst zu konzentrieren, sondern das gesamte Rechenzentrum als eine Recheneinheit zu betrachten. Ich glaube, dass die Welt in Zukunft über Rechenzentren als eine Recheneinheit nachdenken wird, und wir werden über das Rechnen im Rechenzentrumsmaßstab nachdenken. Nicht mehr nur Personalcomputer oder Server, sondern wir werden im Maßstab eines Rechenzentrums arbeiten“.
Die Auslieferung der DGX A100-Systeme von Nvidia hat bereits begonnen, wobei einige der ersten Anwendungen, einschließlich der Forschung zu COVID-19, am US Argonne National Laboratory durchgeführt wurden.
„Wir setzen im Kampf gegen COVID-19 die leistungsfähigsten Supercomputer Amerikas ein und führen KI-Modelle und Simulationen auf der neuesten verfügbaren Technologie wie dem Nvidia DGX A100 durch“, sagt Rick Stevens, stellvertretender Laborleiter für Computing, Umwelt und Biowissenschaften in Argonne. „Die Rechenleistung der neuen DGX A100-Systeme, die nach Argonne kommen, wird den Forschern helfen, Behandlungen und Impfstoffe zu erforschen und die Ausbreitung des Virus zu studieren, so dass Wissenschaftler jahrelange, durch die AI beschleunigte Arbeiten in Monaten oder Tagen durchführen können“.
Nvidia sagt, dass Microsoft, Amazon, Google, Dell, Alibaba und viele andere große Anbieter von Cloud-Diensten ebenfalls planen, die einzelnen A100-GPUs in ihre eigenen Angebote zu integrieren. „Die Annahme und der Enthusiasmus für Ampere von allen Hyperskalierern und Computerherstellern auf der ganzen Welt ist wirklich beispiellos“, sagt Huang. „Dies ist die schnellste Einführung einer neuen Rechenzentrumsarchitektur, die wir je hatten, und das ist verständlich.