Samsung Electronics jest coraz bliżej zawarcia kluczowej umowy z Nvidią na dostawy pamięci HBM4, które mają trafić do akceleratorów AI nowej generacji. Według źródeł branżowych koreański koncern może odpowiadać za ponad 30% wolumenu zamówionego przez Nvidię na przyszły rok, wyprzedzając Microna i ustępując jedynie SK hynix.
Samsung odzyskuje pozycję w segmencie HBM
Rozmowy Samsunga z Nvidią weszły w końcową fazę i dotyczą szóstej generacji pamięci High Bandwidth Memory, czyli HBM4. Układy są w tej chwili poddawane końcowej certyfikacji jakościowej po zainstalowaniu próbek na platformie Rubin, czyli kolejnej generacji akceleratorów AI, które Nvidia planuje wprowadzić na rynek w 2026 roku.
Według informacji z rynku, udział Samsunga w łańcuchu dostaw HBM4 dla Nvidii ma przekroczyć 30%. To wyraźna zmiana w porównaniu z obecną generacją HBM3E, gdzie firma dostarczała jedynie niewielkie wolumeny, ustępując wyraźnie konkurentom. Źródła zbliżone do producenta wskazują, iż Samsung spełnił wymagania wydajnościowe postawione przez Nvidię i jest gotowy do dostaw większej skali niż Micron.
Dla Samsunga to także element odbudowy wizerunku po serii problemów z certyfikacją HBM3E. W tym segmencie zarówno SK hynix, jak i Micron regularnie dostarczali wersje 8 warstwowe i 12 warstwowe, podczas gdy Samsung zmagał się z opóźnieniami i korektami projektowymi.
SK hynix umacnia pozycję lidera, Micron zostaje w tyle
Największym beneficjentem boomu na HBM4 pozostaje SK hynix. Firma ma odpowiadać za blisko 70% wolumenu pamięci HBM4 zamówionego przez Nvidię na przyszły rok. Koreański producent zadeklarował dostawy na maksymalnym poziomie, jaki jest w stanie obsłużyć w ramach obecnych mocy produkcyjnych. Jednocześnie realizowane są prace nad dalszą rozbudową zdolności wytwórczych, co może otworzyć drogę do dodatkowych kontraktów.
Micron znalazł się w wyraźnie trudniejszej sytuacji. Według dostępnych informacji jego udział w dostawach HBM4 dla Nvidii nie przekroczy 10%. Amerykańska spółka miała napotkać problemy techniczne, w tym konieczność częściowego przeprojektowania układów, co opóźniło negocjacje. Choć Micron dostarczył próbki spełniające formalne kryteria Nvidii, ich wydajność została oceniona gorzej niż w przypadku rozwiązań konkurencji.
Istotne znaczenie ma także podejście technologiczne. Zarówno Samsung, jak i SK hynix wykorzystują zaawansowane procesy foundry do produkcji logicznej warstwy HBM, odpowiadającej za komunikację i zarządzanie pamięcią. Micron pozostał przy własnym procesie DRAM, co utrudniło osiągnięcie parametrów wymaganych przez Nvidię.
Znaczenie HBM4 dla rynku AI
HBM4 staje się kluczowym komponentem kolejnej generacji akceleratorów sztucznej inteligencji. Rosnąca liczba rdzeni obliczeniowych i zapotrzebowanie na przepustowość pamięci sprawiają, iż dostęp do stabilnych dostaw HBM decyduje dziś o pozycji w ekosystemie AI. Dla Samsunga większy udział w dostawach dla Nvidii oznacza nie tylko wzrost przychodów, ale też wzmocnienie pozycji w strategicznym segmencie półprzewodników dla centrów danych.
Równolegle firma rozbudowuje moce produkcyjne HBM4 w kompleksie Pyeongtaek, przygotowując się na dalszy wzrost popytu w kolejnych latach.

7 godzin temu






