Success Story
Kunde
Bei unserem Kunden handelt es sich um einen renommierten deutschen Automobilhersteller, speziell um dessen Forschungs- und Entwicklungsabteilung im Bereich autonomes Fahren. Dieser Fachbereich konzentriert sich unter anderem auf die Verbesserung der Sensorik und Datenverarbeitung sowie der Entwicklung von Algorithmen für maschinelles Lernen.
Zusätzlich liegt ein starker Fokus auf der Weiterentwicklung künstlicher Intelligenz zur Verbesserung der Entscheidungsfindung und zur Verhaltensprognose anderer Verkehrsteilnehmer:innen. Darüber hinaus spielt die Simulation und Modellierung eine zentrale Rolle im Entwicklungsprozess, um das Verhalten autonomer Fahrzeuge in einer Vielzahl von Verkehrssituationen zu testen und zu optimieren.
Projekt-Zeitpunkt: 2022Projekt-Volumen: ca. 120.000€
Inhaltsverzeichnis
Projekt-Beschreibung
In diesem Projekt konzentrierten wir uns auf einen spezifischen Teilbereich der Entwicklungsaufgaben im Bereich autonomes Fahren. Die Hochleistungssysteme sind darauf ausgelegt, die enormen Datenmengen zu verarbeiten und zu analysieren, die von den Sensoren autonomer Fahrzeuge erzeugt werden, mit dem Ziel, sichere und effiziente Fahrentscheidungen in Echtzeit zu treffen.
Die Herausforderung bestand darin, eine leistungsstarke Serverumgebung zu schaffen, die in der Lage ist, die intensiven KI-Berechnungen zu unterstützen, die diese Aufgaben erfordern. Um dies zu erreichen, musste unsere Lösung eine hohe Rechenleistung und Skalierbarkeit aufweisen, um die massiven Datenmengen effektiv verarbeiten zu können, die für die KI-Verfahren im autonomen Fahren notwendig sind.
Projekt-Realisierung
Zur Realisierung des Projekts haben wir einen GPU-Cluster assembliert und schlüsselfertig geliefert. Dieser bestand aus drei Octa Multi GPU-Nodes Supermicro A+ Server 4124GS-TNR, inklusive Dual 32Core AMD EPYC 7002.
Die intensiven KI-Berechnungen wurden von je acht NVIDIA® RTX™ A6000-Grafikkarten in diesen Hochleistungssystemen ausgeführt. Diese Grafikkarte, die aktuell weltweit eine der führenden im Bereich des Visual Computing ist, verfügt über 48 GB ultraschnellen GDDR6-Grafikspeicher. Dieser Speicher ist mit einer NVLink-Bridge auf bis zu 96 GB skalierbar und bietet damit Datenwissenschaftler:innen, Ingenieur:innen und kreativen Profis das benötigte Speichervolumen für die Arbeit mit großen Datensätzen und Workloads zur Analyse und Simulation.
Darüber hinaus profitierten wir von der neuesten PCIe Express Gen 4-Unterstützung von GPU wie auch Prozessorplattform. Dies verdoppelte die Bandbreite im Vergleich zu PCIe Gen 3 und verbesserte die Datenübertragungsraten aus dem CPU-Speicher, was insbesondere für datenintensive Aufgaben wie KI und Datenwissenschaft von entscheidender Bedeutung ist.
Was ist eigentlich ... NVLink?
NVLink ist eine von NVIDIA entwickelte Hochgeschwindigkeits-Direktverbindung, die es ermöglicht, den Datenaustausch zwischen der CPU und der GPU sowie zwischen mehreren GPUs zu beschleunigen. Eine NVLink-Bridge ist also ein physisches Verbindungselement, das genutzt wird, um – je nach Bauform – zwei oder mehr Grafikkarten in einem System miteinander zu verbinden. So können diese Grafikkarten nicht mehr nur auf ihren eigenen Speicher zugreifen, sondern den gesamten Speicherpool nutzen. Dies ist besonders nützlich bei rechenintensiven Anwendungen wie maschinellem Lernen oder Grafikrendering, wo es wichtig ist, Engpässe bei der Datenübertragung zu vermeiden.
In komplexeren Systemen inkl. integrierter NVLink-Funktion, auch als "HGX-Plattformen" bezeichnet, werden spezielle Versionen von NVIDIA-Grafikkarten, die als SXM3/SXM4-Module bekannt sind, verwendet. Diese Module sind so konzipiert, dass sie direkt auf einem speziellen sogenannten GPU-Baseboard (hier als Restone/4 GPUs und Delat/8 GPUs benannt) montiert werden können. Das heißt, die NVLink-Verbindungen sind direkt auf dem GPU-Baseboard integriert. Diese HGX-Plattformen können bis zu acht SXM3 bzw. SXM4-GPU unterstützen.
Das Ergebnis
Der von uns gelieferte GPU-Cluster erfüllt die hohen Anforderungen an Rechenleistung, die für die Bearbeitung von datenintensiven KI-Aufgaben benötigt werden. Im Kern des Clusters agiert die NVIDIA® RTX™ A6000 mit 48GB GDDR6-Grafikspeicher, die es unserem Kunden nun ermöglicht, KI-Anwendungen nicht nur schnell, sondern auch effizient auszuführen.
"Schnell" bezieht sich in diesem Fall auf die rohe Leistung oder Geschwindigkeit der NVIDIA® RTX™ A6000, um komplexe Berechnungen in einer kurzen Zeitspanne durchzuführen. "Effizient" hingegen bezieht sich darauf, wie gut die verfügbaren Ressourcen genutzt werden. Eine effiziente GPU führt nicht nur Aufgaben schnell aus, sondern nutzt auch den verfügbaren Speicher, Energie und andere Ressourcen optimal aus. Dies kann besonders wichtig sein, wenn man mit großen Datensätzen arbeitet oder wenn man die Energiekosten und die Wärmeentwicklung in Rechenzentren reduzieren möchte.
Durch den Einsatz der NVLink-Bridge ist zudem eine Skalierung des Grafikspeichers auf bis zu 96GB möglich. Darüber hinaus wurde durch die Umstellung von PCIe Gen 3 auf PCIe Gen 4 eine signifikante Verbesserung der Datenübertragungsraten erreicht. Abschließend bietet die effiziente Nutzung der Prozessor- und GPU-Ressourcen eine große Flexibilität, da die Hardware für eine breite Palette von Anwendungen einsetzbar ist, was eine optimale Nutzung der verfügbaren Ressourcen gewährleistet.
-
Hardwareanforderungen im Zeitalter von Edge- und Cloud-ComputingMaximilian Jaud | 28. Oktober 2024Ableitungen aus dem McKinsey Technology Trends Outlook 2024 – Teil 2Mehr lesen
-
Auswirkungen von Generative AI auf den HardwarebedarfMaximilian Jaud | 28. Oktober 2024Ableitungen aus dem McKinsey Technology Trends Outlook 2024 – Teil 1Mehr lesen