Moderne GPUs bieten enorme Rechenleistung für Machine Learning und Deep Learning.

© Standortagentur Tirol

Jenseits bloßer Grafik

Grafikkarten spielen eine Schlüsselrolle in der Gaming-Welt, aber auch im Bereich der Künstlichen Intelligenz (KI) sind sie unentbehrlich. Moderne GPUs liefern die enorme Rechenleistung, die für Machine Learning und Deep Learning erforderlich ist. Besonders führend in der Entwicklung sind NVIDIA, AMD und Intel, die ihre GPUs für Rechenzentren optimieren und damit den KI-Boom entscheidend vorantreiben.

Für passionierte Gamer und kreative Designer:innen war der Grafikteil von Computer-Hardware schon immer der Maßstab für „flüssiges“ Spiel, fulminante Bildschirm-Auflösung und ruckelfreie Movies.  Tatsächlich hängen die stark nachgefragten Qualitäten von den technischen Feinheiten der sogenannten „Grafikkarte“ ab. Besagte Profis achten auf die verbaute Chipsatzfamilie, auf Speicherkapazität, Busbreite, maximale Display-Auflösung, Kühlung, Einbautiefe, die Anzahl der Display-Ports, um nur ein paar Features zu nennen. Das Business rund um die begehrten Bauteile explodiert weltweit. Der Hype steht in unmittelbarem Zusammenhang mit dem globalen Siegeszug der Künstlichen Intelligenz (KI).         

Vor wenigen Jahren noch galten Systeme bereits als „intelligent“, wenn sie in der Lage waren, mit verzweifelten Kund:innen einen „Pseudo-Chat“ zu führen oder in Sekundenbruchteilen in einer Datenbank nach den trockensten Gebieten unseres Planeten zu recherchieren. Die smarte Wende hin zu Eigenständigkeit, korrekter Aktion/Reaktion und Kreativität wurde möglich dank der enormen Fortschritte beim „Machine Learning“ und „Deep Learning“.  
 
Wahrnehmen, interpretieren, modellieren  
 
KI-basierte Lösungen helfen technischen Anwendungen, die Umwelt wahrzunehmen, daraus gewonnene Daten (ähnlich menschlichen Sinneswahrnehmungen) zu interpretieren und einen logisch kohärenten Satz von Handlungen abzuleiten. Die Stärke dieser Maschinen besteht darin, dass sie sich geschmeidig und widerstandsfrei geänderten Variablen und Rahmenbedingungen anpassen. Das Wie allerdings ist entscheidend.

Der Erfolg von Machine Learning hängt ab von menschlichen Eingriffen. Algorithmen verbessern sich nur dann, wenn das System mit sinnvollen und strukturierten Informationen gefüttert wird. Deep Learning kann mehr, es verbessert Rechenprozeduren auf der Basis neuronaler Netzwerke selbständig. Daten dürfen hierbei auch unstrukturiert vorliegen. Das Geheimnis dahinter heißt KNN (künstliche neuronale Netze). Texte, akustische Informationen, statische und bewegte Bilder werden in numerische Werte konvertiert. Muster werden erkannt und zum erweiterten Lernen eingesetzt. 
 
Die Grafikkarte rechnet, rechnet, rechnet…  
 
KNN brauchen enorme Rechenpower, um sowohl aus geordneten als auch ungeordneten Datenströmen Lerneffekte zu generieren. Eine moderne Grafikkarte bzw. GPU (Grafikprozessor, aus vielen Kernen bestehend) leistet diese Arbeit. Der klassische Prozessor, die Central Processing Unit (CPU), muss sich in diesem Umfeld geschlagen geben. GPUs sind nämlich in der Lage, multiple Aufgaben parallel zu meistern.

Die herkömmliche CPU setzt auf serielle Technik, die bei KI-Anforderungen nicht recht weiterhilft. Weltweit führende Hersteller wie NVIDIA, AMD und ARM präsentieren im Dunstkreis der KI-Welle deshalb eigene „Data Center GPUs“. Sie haben mit den bekannten Grafikkarten so gar nichts mehr gemein. Man entdeckt zwar noch die typische Architektur einer GPU, den Einsatz für den Monitor spielt es allerdings nicht mehr.    
 
GPUs für Rechenzentren  
 
Die Gestaltung von Grafikkarten, die für den anspruchsvollen Recheneinsatz gebaut werden, unterscheidet sich wesentlich von der CPU. Die GPU ist auf eine große Anzahl von Flops ausgelegt (Floating Point Operations Per Second), sie liegen manchmal bei Tera-Flops (1012 Flops) oder sogar Peta-Flops (1015 Flops). Dabei helfen die Tausenden von Kernen, die in einer GPU arbeiten. Bei der klassischen CPU sind es maximal 64.

GPUs bestechen durch hohe Speicherbandbreite, um enorme Datenmengen beim maschinellen Lernen und Grafikapplikationen schnell zu verarbeiten. Die Power von GPUs produziert allerdings einiges mehr an Wärme, deshalb muss effektiver gekühlt werden. Summa summarum benötigen moderne „Data Center GPUs“ mehr Energie und produzieren dazu einen deutlichhöheren Wärmelevel.        

Das wird von den Produzenten gefordert, wenn die Bauteile fit für ein Data Center sein sollen: 

  • Hohe Rechenleistung für KI und „Machine Learning“ 
  • Parallele Verarbeitung von Aufgaben 
  • Nachhaltigkeit für die Erfüllung moderner Umweltstandards  
  • Miniaturisierung   
  • Verwendung neuer Materialien und Fertigungs-Technologien 
  • Kontinuierliche Senkung der Produktionskosten  
  • Schnelle Innovationszyklen  
  • Starke System- und Software-Kompatibilität 
  • Datensicherheit  
  • Resilienz gegenüber Fehlern und Cyber-Angriffen  

Die großen Drei!  
 
Ein international agierendes Trio zeigt sich bei GPUs besonders marktdominant. Das kalifornische Unternehmen NVIDIA mit Sitz in Santa Clara besitzt keine eigenen Produktionskapazitäten und arbeitet nach dem „Fabless-Prinzip“. Ein Marktanteil von 80 % bescherte dem Giganten ein Jahresergebnis 2023 von 20,68 Millionen verkauften Einheiten.

AMD, ebenfalls in Santa Clara / Kalifornien ansässig, entwickelt, produziert und vertreibt Computerchips. Im vergangenen Jahr konnte sich AMD einen Marktanteil von 17 % sichern und setzte 4,52 Millionen GPUs ab.

INTEL, Nachbar der zwei vorgenannten Hersteller, hält mit 600.000 verkauften GPUs 2023 einen Anteil von 2,3 %. Bei den Data Center GPUs ergibt sich ein ähnliches Bild. Die Anzahl hergestellter Einheiten wird auf 3,85 Millionen Stück geschätzt. Auf NVIDIA entfallen dabei satte 84 %, AMD pendelt sich bei 12 % ein, INTEL schafft 4 %.  
 
Mit dem Produkt A100 Tensor Core konnte INTEL eine GPU vorlegen, die für KI und maschinelles Lernen optimiert wurde. Sie bietet eine Leistung, die 20-mal höher ist als die der vorangegangen Generation.      

Tiroler:innen setzen auf Performance
 
In punkto Marktpräsenz der Technik-Leader hüllen sich heimische Anwender:innen gerne in Schweigen. Verständlich, denn wer gibt schon Interna zum Einsatz von High-End-GPUs heraus? Bei einer spontanen Umfrage war zumindest zu erfahren, dass im Sektor Grafikdesign und Videoschnitt kaum ein anderer Hersteller als NVIDIA zu finden ist. Mehr als bei allen anderen Hardware-Komponenten bleiben User bei der GPU beim bekannten Produzenten. Manche schon dreißig Jahre!

Ähnlich sieht es beim Einsatz von Data-Center-GPUs aus, deren Verwendungshäufigkeit exponentiell mit der Evolution der KI mitwächst. Zwei angefragte Rechenzentren mittlerer Größe gaben an, dass sie für die höchst rechenintensiven Anwendungen ihrer Branche (Wetterbeobachtung, Bankdienstleistungen) jeweils knapp unter 1.000 GPUs von NVIDIA in der Rechner-Infrastruktur verbaut haben. Nicht zu unterschätzen ist das Krypto-Mining, das mit den Karten von NVIDIA und Co. am zuverlässigsten funktioniert. Obwohl 19,11 von 21 Millionen Bitcoins schon „geschürft“ sind und die Strompreise alles andere als attraktiv sind, tuckert in manch Tiroler Garage ein Bitcoin-Miner vor sich hin.  

Zurück