- 1. August 2024
- Zurück zur Übersicht
Technologien im Fokus
Die Halbleiterindustrie entwickelt sich ständig weiter, um den steigenden Anforderungen nach höherer Leistung und Effizienz gerecht zu werden. Zwei der wichtigsten Innovationen in diesem Bereich sind High Bandwidth Memory (HBM) und 3D Stacking1 . Zwar sind beide Technologien längst nicht mehr „neu“ (HBM wurde 2013 auf den Markt gebracht, 3D Stacking gar in den frühen 2000ern Jahren entwickelt), durch die wahnsinnig steigende Nachfrage nach kompakteren und leistungsfähigeren Chips hat sie aber erheblich an Bedeutung gewonnen2.
Die steigende Nachfrage nach HBM und 3D Stacking, lässt sich unter anderem auf den Boom bei Anwendungen der Künstlichen Intelligenz (KI) und Hochleistungsrechnern (HPC) zurückzuführen. Laut einer Studie von IDC wird erwartet, dass der Markt für HBM und verwandte Technologien bis 2024 eine jährliche Wachstumsrate von über 20% erreichen wird3.
Was ist 3D Stacking?
3D Stacking ist eine Technologie, bei der mehrere Halbleiterchips übereinander gestapelt und durch vertikale Verbindungen, sogenannte "Through-Silicon Vias" (TSVs), miteinander verbunden werden. Diese Technik ermöglicht eine erhebliche Reduzierung der Latenz und eine Erhöhung der Bandbreite, da die Signale nur kurze Wege zurücklegen müssen.
„Traditionelle“ Anordnung von Halbleiterchips
Üblicherweise werden Halbleiterchips nebeneinander auf einer Leiterplatte (PCB) angeordnet. Diese Anordnung erfordert längere Verbindungswege zwischen den Chips und dem Speichercontroller oder Prozessor, was zu höheren Latenzzeiten und einem erhöhten Energieverbrauch führt. Zudem nimmt diese horizontale Anordnung mehr Platz ein, was die Miniaturisierung und Leistungsdichte von elektronischen Geräten begrenzt.
Vorteile von 3D Stacking:
- Erhöhte Leistung:
Durch die vertikale Integration der Chips können Signallaufzeiten minimiert und die Leistung verbessert werden. - Platzersparnis:
Die Stapelung mehrerer Chips übereinander spart Platz und ermöglicht kompaktere Designs. - Energieeffizienz:
Wie bei HBM reduziert die Nähe der Chips zueinander den Energieverbrauch.
3D Stacking wird in verschiedenen Bereichen eingesetzt, darunter in der Speichertechnologie, bei Prozessoren und bei speziellen AI-Chips. Diese Technologie ist besonders relevant für Anwendungen, die hohe Leistungsanforderungen haben und gleichzeitig kompakte und energieeffiziente Lösungen benötigen.
1https://kpmg.com/us/en/articles/2024/global-semiconductor-industry-outlook.html2https://www2.deloitte.com/us/en/pages/technology-media-and-telecommunications/articles/semiconductor-industry-outlook.html
3https://www.idc.com/getdoc.jsp?containerId=prAP51603223
Was ist High Bandwidth Memory (HBM)?
High Bandwidth Memory (HBM) ist eine fortschrittliche Form des DRAM-Speichers, die entwickelt wurde, um eine höhere Bandbreite und Energieeffizienz zu bieten als traditionelle DRAM-Module.
Ein herkömmliches DRAM-Modul besteht aus mehreren Speicherchips, die – wie oben bereits erläutert - horizontal auf einer Leiterplatte (PCB) angeordnet sind. Diese Anordnung führt zu längeren Verbindungswegen zwischen den Chips und dem Speichercontroller, was die Datenübertragungsgeschwindigkeit einschränken und den Energieverbrauch erhöhen kann.
HBM verwendet hingegen vertikale Stapel von Speicherchips, die durch sogenannte "Through-Silicon Vias" (TSVs) miteinander verbunden sind. Dies ermöglicht eine größere Nähe der Chips zueinander und somit kürzere Verbindungswege, was die Datenübertragungsgeschwindigkeit erhöht und den Energieverbrauch senkt.
Kurz und knapp: HBM und 3D Stacking
- 3D Stacking:
Übereinander gestapelte Halbleiterchips, verbunden durch TSVs. - HBM:
Vertikale Stapelung von DRAM-Chips, verbunden durch TSVs. - Vorteile:
Höhere Leistung, Platzersparnis, Energieeffizienz. - Einsatzbereiche:
Speichertechnologie, Prozessoren, AI-Chips, HPC.
HBM Technologien, Relevanz und Verfügbarkeit
High Bandwidth Memory (HBM) hat sich als eine Schlüsseltechnologie im Speichermarkt etabliert, insbesondere im Bereich der Hochleistungsrechner (HPC) und künstlichen Intelligenz (KI). Durch seine hohe Bandbreite und Energieeffizienz ermöglicht HBM eine signifikante Leistungssteigerung bei gleichzeitiger Reduzierung des Energieverbrauchs. Diese Eigenschaften machen HBM ideal für Anwendungen, die große Datenmengen schnell verarbeiten müssen, wie zum Beispiel in Supercomputern, AI-Beschleunigern und fortschrittlichen Grafikprozessoren (GPUs)4 .
4https://www.hpcwire.com/2024/03/06/memcon-2024-insights-into-cxl-hbm-genai-and-more/Erste Generation der HBM-Technologie, die eine höhere Bandbreite als traditionelle DRAM-Module bietet. Seit 2014 auf dem Markt.
Bietet eine verbesserte Bandbreite und Kapazität im Vergleich zu HBM. Verwendet in Hochleistungsanwendungen wie Grafikkarten und Supercomputern. Seit 2016 auf dem Markt.
Erweiterte Version von HBM2, die noch höhere Bandbreiten und Kapazitäten bietet. Optimiert für AI und HPC-Anwendungen. Seit 2020 auf dem Markt.
Neueste Generation von HBM, die noch höhere Bandbreiten und Verarbeitungsgeschwindigkeiten bietet. Speziell für AI und HPC entwickelt. Markteinführung ab 2024 erwartet.
Eine Weiterentwicklung von HBM3 mit optimierter Leistung und Effizienz. Bereitgestellt für AI und HPC-Anwendungen. Proben wurden bereits 2023 verteilt, und die Verfügbarkeit ab dem zweiten Quartal 2024 erwartet.
Integration von AI-Berechnungen direkt in den Speicher, um die Effizienz und Geschwindigkeit von AI-Anwendungen zu verbessern. Bereits in verschiedenen AI-Anwendungen implementiert.
Relevanz und Verfügbarkeit von HBM
High Bandwidth Memory (HBM) hat sich als eine äußerst relevante Technologie etabliert, insbesondere in Bereichen wie künstlicher Intelligenz (KI) und Hochleistungsrechnern (HPC). Führende Cloud-Anbieter wie Amazon Web Services (AWS) und Google nutzen bereits HBM in ihren Cloud-Diensten und spezialisierten Rechenressourcen, um die hohe Rechenleistung und Effizienz zu bieten, die moderne Anwendungen erfordern5,6.
HBM findet bislang vor allem Anwendung in absoluten High-End-Produkten wie NVIDIA's H200 GPUs und AMD's Radeon Instinct MI100 und MI200. Zum aktuellen Zeitpunkt ist HBM jedoch nicht in Form von Standalone-Modulen für den direkten Kauf verfügbar. Es gibt derzeit keine Ankündigungen von Herstellern, dass solche Module in naher Zukunft auf den Markt kommen werden. Die Entwicklung und Produktion von HBM konzentrieren sich derzeit auf die Integration in spezialisierte Hochleistungsprodukte.
Obwohl die Verfügbarkeit von HBM für den breiten Markt derzeit eingeschränkt ist, sollte man den HBM-Hype ernst nehmen und die Entwicklungen im Auge behalten. Diese Technologien sind primär in spezialisierten Anwendungen und bei großen Anbietern wie AWS und Google zu finden, die oft Vorreiter bei der Einführung neuer Technologien sind. Es ist daher wichtig, diese Entwicklungen zu verfolgen, um auf zukünftige Trends und Innovationen vorbereitet zu sein.
5https://www.trendforce.com/news/2024/01/30/news-latest-updates-on-hbm-from-the-leading-three-global-memory-manufacturers/ 6https://www.sammobile.com/news/samsung-shinebolt-hbm3e-memory-hbm4-development/-
Hardwareanforderungen im Zeitalter von Edge- und Cloud-ComputingMaximilian Jaud | 28. Oktober 2024Ableitungen aus dem McKinsey Technology Trends Outlook 2024 – Teil 2Mehr lesen
-
Auswirkungen von Generative AI auf den HardwarebedarfMaximilian Jaud | 28. Oktober 2024Ableitungen aus dem McKinsey Technology Trends Outlook 2024 – Teil 1Mehr lesen