Stosy HBM4 nowej generacji przewyższają specyfikacje JEDEC i Nvidia z prędkością do 13 Gb/s i przepustowością 3,3 TB/s, zapewniając jednocześnie wyższą efektywność energetyczną, lepsze adekwatności termiczne i do 36 GB pojemności na 12-warstwowy stos. Jest to jednak najdroższa pamięć, jaką Nvidia kiedykolwiek zamówiła dla kart centrum danych AI.