Nvidia enthüllt mit der Blackwell-Architektur die nächste Generation seiner KI-Beschleuniger. Die Technologie, die ab 2025 auch in Gaming-Grafikkarten erwartet wird, verspricht enorme Leistungssteigerungen und Effizienzverbesserungen.
Auf der jährlichen GPU Technology Conference (GTC) hat Nvidia-CEO Jensen Huang die lang erwartete Blackwell-Architektur offiziell vorgestellt. Die neue Generation von KI-Beschleunigern, benannt nach dem Mathematiker David Blackwell, setzt neue Maßstäbe in der Verarbeitung künstlicher Intelligenz und dürfte 2025 im Gaming-Sektor die Lovelace-Architektur ablösen.
B200-GPU stellt Vorgänger in den Schatten
Im Fokus der Vorstellung war die Blackwell-B200-GPU, Nvidias bisher komplexester Grafikprozessor für KI-Beschleunigung. Dieser verfügt über 208 Milliarden Transistoren und erreicht eine Rechenleistung von 20 Petaflops im FP4-Datenformat. Zum Vergleich: Die Vorgängergeneration, H100 (80 Mrd. Transistoren), kommt auf lediglich 4 Petaflops im FP8-Format, was die B200 um das 2,5-fache übertrifft.
Die technische Komplexität der B200-GPU resultiert aus einer Doppel-GPU-Struktur, gefertigt in einem 4NP-Prozess bei TSMC. Der Die-Interconnect verbindet beide GPU-Chips mit 10 TB/s, ähnlich wie bei Apples M1- und M2-Ultra-Prozessoren, was zu einer geschätzten Gesamtfläche von 1.716 Quadratmillimetern führt. Dies ermöglicht nicht nur eine beeindruckende Rechenleistung, sondern auch eine effiziente Nutzung von 192 GB HBM3e-Grafikspeicher mit einer Datenrate von 8 TB/s. Die TDP wird mit 1.000 Watt angegeben.
Ein wesentliches Merkmal der Blackwell-Architektur ist die zweite Generation der Transformer-Engine, die die Effizienz und Leistung der Tensor-Kerne durch automatische Auswahl des optimalen Datenformats für KI-Modellparameter weiter steigert. Dies ermöglicht eine verbesserte Auslastung der GPU bei unterschiedlichen Datentypen.
Der Launch der Blackwell-Architektur bekräftigt Nvidias Führungsrolle im Bereich der KI-Beschleuniger und deutet auf eine spannende Zukunft für die nächste Gaming-GPU-Generation hin. Technologieunternehmen wie AWS, Google, OpenAI und Microsoft haben bereits Interesse an den neuen KI-Beschleunigern bekundet. Klar ist, dass B200 deutlich teurer ausfallen wird als der H100-Vorgänger. Letzterer kostet circa 30.000 bis 40.000 US-Dollar pro Stück, für B200 werden Preise zwischen 80.000 und 100.000 US-Dollar geschätzt.
Mit * oder markierte Links sind „Affiliate-Links“. Mit dem Kauf über diesen Link erhalten wir eine Verkaufsprovision, ohne dass du mehr bezahlst.
Quellen:Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung männlicher, weiblicher und diverser Sprachformen (m/w/d) verzichtet. Alle Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.
Kommentieren, Austauschen und Fragen...
Schreibe einen eigenen Kommentar