RAM i HBM – cenny kruszec przyszłości. Wzrost cen, zyski gigantów, smutek graczy.

Jeszcze niedawno sektor półprzewodników leczył rany po recesji związanej z pandemią. Składy były przepełnione, a ceny gwałtownie spadały. Obecnie sytuacja obróciła się o 180 stopni, a dynamiczny rozwój AI znalazł kolejną “zdobycz”. Tym razem dotknęło to moduły RAM, których wartość poszybowała w górę, generując tym samym zyski i wzrosty wycen dla czołowej trójki producentów. Dla klienta oznacza to jedno: droższe komputery, lecz dla inwestorów: prawdziwy raj.

Pamięci RAM i HBM nowym złotem. Ceny szaleją, Wielka Trójka liczy miliardy, a gracze płaczą

/ NanoBanana

Wielka trójka jako nośnik rewolucji?

Podobnie jak w przypadku procesorów, mamy do czynienia z bardzo ograniczonym kręgiem producentów. W temacie pamięci operacyjnej, w centrum tego zawirowania stoją trzej potentaci, którzy kontrolują blisko 100% globalnej produkcji pamięci. Są to koreańskie SK Hynix i Samsung oraz amerykański Micron.

Dlaczego akurat pamięć i jej wytwórcy stali się nagle kluczowi? Jak nie wiadomo, o co chodzi, to na pewno o finanse, a w dzisiejszym cyfrowym świecie zasobem jest nie waluta, lecz przepustowość. Nowoczesne LLM-y to cyfrowe molochy zajmujące dziesiątki gigabajtów, które muszą być migiem przesyłane do jednostek obliczeniowych. W ostateczności, pytając chatbota o recepturę na bułeczki cynamonowe, prosząc o analizę arkusza kalkulacyjnego w pracy lub (co szczególnie wymagające) tworząc kolejny absurdalny obrazek, oczekujemy rezultatu natychmiast, a to generuje koszty…

Pamięci nowej generacji, takie jak DDR5, a zwłaszcza wyspecjalizowana pamięć HBM (o której więcej za chwilę), przestały być jedynie biernym „schowkiem”, a stały się wielopasmową magistralą. Bez niej silniki AI po prostu dusiłyby się swoją własną mocą.

HBM, czyli nowy “święty gral”?

Czym zatem jest ten „święty gral” o nazwie HBM? By uchwycić różnicę, spójrzmy na to, jak przesyłane są dane. Standardowa pamięć RAM (obecnie w najnowszej odsłonie DDR5) w Twoim komputerze to bardzo szybki posłaniec na jednośladzie. Porusza się żwawo, ale może unieść tylko małą paczkę na raz. To znakomite rozwiązanie do gier (gdyby ceny nie wzrosły) i systemu Windows.

Jednak AI potrzebuje czegoś odmiennego. Pamięć HBM (High Bandwidth Memory) to olbrzymi skład towarowy. Być może nie gna tak szybko jak skuter, ale ciągnie za sobą tysiące wagonów jednocześnie. Dodatkowo kontenery, które transportuje są wielopoziomowe – dzięki technologii pionowego układania struktur (3D Stacking), inżynierowie stworzyli pamięć o niezwykle szerokim „oknie” przesyłowym. Zamiast jednej wąskiej drogi mamy tutaj wielotorową trasę. Rezultat? Podczas gdy najlepsze DDR5 przesyłają dane z prędkością około 100 GB/s, najnowsze układy HBM3e osiągają oszałamiające 1200 GB/s na jeden stos. To ta gigantyczna przepustowość pozwala „dożywiać” nienasycone procesory AI.

Kto bije tę monetę?

Skoro przepustowość to pieniądz, to mennicą XXI wieku stały się fabryki w Korei i Stanach Zjednoczonych. To one wpływają na tempo rozwoju AI, a rynek wycenia to wpływy na miliardy dolarów. Niekwestionowanym liderem tego wyścigu jest południowokoreański SK Hynix. Spółka, która przez lata działała nieco w tle Samsunga, zaopatrując w pamięci nasze laptopy i smartfony (możecie ją kojarzyć np. z modułów RAM od G.Skill czy Kingston), postawiła wszystko na jedną kartę – rzeczona pamięć HBM (High Bandwidth Memory) i co ważne w czasie, gdy konkurencja drzemała.

To się opłaciło. Dziś, dzięki kooperacji z Nvidią to właśnie chipy Hynixa napędzają najwydajniejsze akceleratory AI na świecie.

W ostatnim kwartale zysk operacyjny firmy poszybował o zaskakujące 137% rdr, a inwestorzy, upatrując w Hynixie głównego beneficjenta hossy, podnieśli kurs akcji o ponad 200% w przeciągu zaledwie pół roku i aż 330 procent w skali całego roku.

TradingView


Amerykanie także wyczuwają zyski

Zaraz za nim plasują się Amerykanie z Micron Technology. Ich wyniki są potwierdzeniem zmiany trendów w branży. Jeszcze niedawno sytuacja firmy była uzależniona od kapryśnego rynku smartfonów, ale najnowsze raporty (za IV kwartał fiskalny) nie pozostawiają wątpliwości: przychody wystrzeliły o 93% rok do roku (do 7,75 mld USD), wyciągając firmę z kryzysu finansowego.

Kluczowa liczba to jednak przychody z samego segmentu serwerowego, które wzrosły o gigantyczne 152%, spychając rynek konsumencki na drugi plan. Dodatkowo, zarząd obwieścił, że ich zdolności produkcyjne dla najdroższych kości HBM są już w całości zakontraktowane.

Giełda natychmiast zareagowała na te wieści – akcje wystrzeliły w górę, a dziś Micron jest wyceniany blisko 390 procent wyżej niż rok temu.

TradingView


Czy Samsung się obudził i gra na dwa fronty?

W tym zestawie jest jeszcze trzeci gracz – Samsung, który choć z początku pozostał w tyle za SK Hynix w gonitwie, teraz nadrabia dystans skalą i objętością produkcji. Zysk operacyjny ich działu chipów (DS Division) w ostatnim kwartale wzrósł niemal trzykrotnie kwartał do kwartału, wydostając dywizję z wielomiliardowych strat odnotowywanych jeszcze rok wcześniej. W ostatnim sprawozdaniu przedsiębiorstwo pochwaliło się zyskiem na poziomie 6,45 biliona wonów (około 4,7 mld USD).

Wycena w ciągu roku wzrosła z kolei o ponad 200 procent.

TradingView

Taniej już było, a będzie tylko drożej. I znów uderzy to w graczy

Jeśli jesteście graczami i mieliście nadzieję, że obecne zwyżki to tylko chwilowe zachwianie rynku, to tak się nie stanie. W analizach czołowych banków inwestycyjnych, jak informuje agencja Bloomberga, coraz częściej pada termin „Memory Supercycle”. To rzadkie zjawisko, w którym zapotrzebowanie strukturalnie przewyższa podaż nie przez kwartał, lecz przez lata.

Skąd więc ten pesymizm dla budżetów konsumentów? Tutaj wracamy do nieubłaganej fizyki produkcji. Wytworzenie zaawansowanej pamięci HBM jest znacznie bardziej skomplikowane i „powierzchniożerne” niż w przypadku standardowego RAM-u. Branżowa "złota zasada" mówi, że możliwości przerobowe wafla krzemowego potrzebne do wyprodukowania 1 GB pamięci HBM, „pochłaniają” możliwość wytworzenia aż 3 GB tradycyjnego DDR5. Producenci stają więc przed prostym wyborem: albo wytwarzać masowo tanią pamięć do laptopów, albo przekierować linie na ultradrogi moduł dla Nvidii. Wybór, patrząc na zyski, jest jasny.

Widać to zresztą już w działaniach firm i prowadzi do sytuacji wręcz zaskakujących. Najlepszym przykładem jest tu Samsung, gdzie dział produkcji pamięci zaczął odrzucać priorytetowe zamawianie kości do smartfonów produkowanych przez… dział mobilny Samsunga.

Analitycy z TrendForce nie pozostawiają złudzeń – czeka nas kolejna fala podwyżek. Prognozy na pierwszą połowę 2026 roku przewidują skoki cen kontraktowych DDR5 nawet o 30-60%, chociaż dotychczasowe wzrosty i tak są już znaczące.

pcpartpicker.com

Co gorsza, oberwie się również starszemu standardowi DDR4, ale zamiast tanieć z powodu wymiany generacyjnej, również drożeje, ponieważ jest tańszy w zakupie i nadal dostępny, ale… nikt już nie chce go produkować. Mechanizmy rynkowe widać tutaj jak na dłoni.

pcpartpicker.com

Jaki z tego morał dla przeciętnego człowieka? Żyjemy w czasach, w których "dane to nowy surowiec", a pamięć RAM stała się tankowcem do ich transportu. Dopóki giganci tacy jak Google, Microsoft czy OpenAI będą toczyć zawody, inwestując ogromne środki w infrastrukturę, dopóty my, konsumenci, będziemy ponosić swoisty "podatek od AI" przy zakupie każdego laptopa i podzespołu.

Producenci pamięci po trudnych latach w końcu odkryli swoje źródło dochodów i nie zamierzają prędko ograniczać dostaw dla rynku konsumenckiego. Zwłaszcza że giganci nie planują zwalniać z tempem inwestycji. Przykładowo, w najnowszym sprawozdaniu finansowym Meta zadeklarowała, że w samym 2026 roku firma planuje przeznaczyć na infrastrukturę AI astronomiczną kwotę, między 115 a 135 miliardów dolarów. To niemal podwojenie wydatków z ubiegłego roku.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *