Nvidia präsentiert Blackwell-Architektur für KI-GPUs

B200 kommt mit zwei GPU-Chips

Nvidia enthüllt mit der Blackwell-Architektur die nächste Generation seiner KI-Beschleuniger. Die Technologie, die ab 2025 auch in Gaming-Grafikkarten erwartet wird, verspricht enorme Leistungssteigerungen und Effizienzverbesserungen.

Auf der jährlichen GPU Technology Conference (GTC) hat Nvidia-CEO Jensen Huang die lang erwartete Blackwell-Architektur offiziell vorgestellt. Die neue Generation von KI-Beschleunigern, benannt nach dem Mathematiker David Blackwell, setzt neue Maßstäbe in der Verarbeitung künstlicher Intelligenz und dürfte 2025 im Gaming-Sektor die Lovelace-Architektur ablösen.

B200-GPU stellt Vorgänger in den Schatten

Im Fokus der Vorstellung war die Blackwell-B200-GPU, Nvidias bisher komplexester Grafikprozessor für KI-Beschleunigung. Dieser verfügt über 208 Milliarden Transistoren und erreicht eine Rechenleistung von 20 Petaflops im FP4-Datenformat. Zum Vergleich: Die Vorgängergeneration, H100 (80 Mrd. Transistoren), kommt auf lediglich 4 Petaflops im FP8-Format, was die B200 um das 2,5-fache übertrifft.

Nvidia B200 GPU, daneben Leistungsdaten im Vergleich zu H100
Bild: Nvidia

Die technische Komplexität der B200-GPU resultiert aus einer Doppel-GPU-Struktur, gefertigt in einem 4NP-Prozess bei TSMC. Der Die-Interconnect verbindet beide GPU-Chips mit 10 TB/s, ähnlich wie bei Apples M1- und M2-Ultra-Prozessoren, was zu einer geschätzten Gesamtfläche von 1.716 Quadratmillimetern führt. Dies ermöglicht nicht nur eine beeindruckende Rechenleistung, sondern auch eine effiziente Nutzung von 192 GB HBM3e-Grafikspeicher mit einer Datenrate von 8 TB/s. Die TDP wird mit 1.000 Watt angegeben.

Ein wesentliches Merkmal der Blackwell-Architektur ist die zweite Generation der Transformer-Engine, die die Effizienz und Leistung der Tensor-Kerne durch automatische Auswahl des optimalen Datenformats für KI-Modellparameter weiter steigert. Dies ermöglicht eine verbesserte Auslastung der GPU bei unterschiedlichen Datentypen.

Nvidia B200-GPU, daneben Eigenschaften aufgelistet
Bild: Nvidia

Der Launch der Blackwell-Architektur bekräftigt Nvidias Führungsrolle im Bereich der KI-Beschleuniger und deutet auf eine spannende Zukunft für die nächste Gaming-GPU-Generation hin. Technologieunternehmen wie AWS, Google, OpenAI und Microsoft haben bereits Interesse an den neuen KI-Beschleunigern bekundet. Klar ist, dass B200 deutlich teurer ausfallen wird als der H100-Vorgänger. Letzterer kostet circa 30.000 bis 40.000 US-Dollar pro Stück, für B200 werden Preise zwischen 80.000 und 100.000 US-Dollar geschätzt.

Mit * markierte Links sind Affiliate-Links. Mit dem Kauf über diesen Link erhalten wir eine Verkaufsprovision, ohne dass du mehr bezahlst.

Quellen:
Foto von Tim Metzger Tim Metzger

… schreibt seit 2020 für Allround-PC zu Technik aller Art und hat schon in jedem Ressort Artikel verfasst. Abseits des Redakteur-Jobs studiert Tim Technikjournalismus an der Hochschule Bonn-Rhein-Sieg.

Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung männlicher, weiblicher und diverser Sprachformen (m/w/d) verzichtet. Alle Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.

^