Korea Economic Daily: Wenn AI-CPUs DRAM verschlingen – Der „Speichermangel “ wird noch ein weiteres Jahr andauern!
Die Speicherbranche erzielt Rekordleistungen, angetrieben durch einen Preisanstieg von mehr als 100 % bei Commodity-DRAM, und mit CPUs, die speziell für AI entwickelt wurden und nun im Einsatz sind, zeigen Prognosen, dass der Mangel mindestens ein weiteres Jahr andauern wird.

Die kürzlich von Intel eingeführten „AI CPUs“ werden voraussichtlich bis zu viermal mehr Commodity DRAM als ihre Vorgänger tragen. In Kombination mit dem drastischen Anstieg der Nachfrage nach High-Capacity-DRAM für GPUs erwarten Beobachter, dass die Speicherlieferfähigkeit von Samsung Electronics und SK Hynix nicht ausreichen wird, um den Bedarf zu decken.Nach Angaben von Brancheninsidern vom 2. des Monatsstreben CPU-Hersteller an, 300–400 GB DRAM in AI CPUs zu integrieren. Dies ist viermal höher als die typische Kapazität von CPU-Produkten (96–256 GB), was beeindruckend ist.Die CPU tritt als „AI-Orchestrator“ hervorDie Nachfrage nach hochkapazitivem DRAM für AI CPUs steigt drastisch, was eng mit der Transformation der AI-Branche hin zu einer inferenzzentrierten Struktur verbunden ist. Während in der Vergangenheit AI-Inferenz für einfache Frage-Antworten genutzt wurde, agiert sie heute als „Orchestrator“, der verschiedene agentenbasierte AI koordiniert.Der Schlüssel hierbei ist das „Kontextgedächtnis“. Die CPU muss, um den gesamten Workflow durch Bezugnahme auf die Ausgaben jeder agentenbasierten AI koordinieren zu können, Inhalte speichern. Dadurch wird eine Erweiterung des Speichers – also des Speicherplatzes – essentiell.Bislang waren AI-Datacenter darauf ausgerichtet, Recheninfrastrukturen rund um GPUs mit High Bandwidth Memory (HBM) zu bauen. Der Fokus lag auf „AI-Training“, indem GPUs beim gleichzeitigen Training von großen Datenmengen genutzt wurden. Server-Konfigurationen folgten daher einem 8-GPU-zu-1-CPU-Modell. Doch mit dem Wechsel zum Inferenzfokus verbreiten sich Server-Konfigurationen mit deutlich höherem CPU-Anteil.In einer jüngsten Gewinnkonferenz erklärte ein Intel-Manager: „In AI-Inferenz-Infrastrukturen hat sich das Rechenverhältnis auf 1:4 zwischen CPU und GPU verschoben und bewegt sich weiter auf ein 1:1-Verhältnis zu.“Nach dem GPU steigt auch die CPU in den Speicherwettstreit ein – Nachfrage wächst wie eine LawineDer Kampf um Speicherplatz hat sich von GPUs auf CPUs ausgeweitet und wächst rapide. NVIDIAs nächste Generation von AI-Chips „Vera Rubin“ nutzt 8 HBM-Stapel und kommt auf 288 GB; AMDs nächste GPU MI400 bietet sogar eine enorme Kapazität von 432 GB.Google hat kürzlich einen spezialisierten Chip – die achte Generation derTensor Processing Unit (TPU 8i) – vorgestellt, welcher ebenfalls mit 288 GB HBM ausgestattet werden soll. Hinzu kommen Intels AI CPU „Xeon“ und AMDs „EPYC“, die mit bis zu 400 GB DDR5 ausgestattet werden – damit ist ein länger anhaltender Speichermangel zu erwarten.Die Hitze des Marktes zeigt sich bereits in den aktuellen Preisen. Laut Kiwoom Securities sind die Preise für ältere DDR4 (16 GB Standard) im April um 16 % gefallen, während die Spotpreise für DDR5 (16 GB Standard), die für AI CPUs genutzt werden, im gleichen Zeitraum um 2,8 % stiegen und ihren Preisaufschlag beibehielten.Ein Brancheninsider erklärt:„Der aktuelle DRAM-Markt gilt als etwa 10 Prozentpunkte unter dem Bedarf. Zusätzlich zur Nachfrage nach HBM steigt die Nachfrage nach Commodity-DRAM massiv an, sodass der Superzyklus sehr wahrscheinlich von 2026 bis 2027 verlängert wird.“
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

