Pamięć dla AI wyprzedana. Ceny biją rekordy

Rynek technologiczny stoi w obliczu nowego, poważnego wąskiego gardła. Nie chodzi tym razem o same procesory graficzne (GPU), ale o ich kluczowy komponent: zaawansowaną pamięć. Gwałtowny rozwój sztucznej inteligencji, napędzany przez firmy takie jak Nvidia, Google czy AMD, doprowadził do historycznego niedoboru specjalistycznej pamięci HBM, co pociąga za sobą rekordowe wzrosty cen i zmienia priorytety całej branży półprzewodnikowej.

Bezprecedensowy wzrost cen i wyczerpane moce produkcyjne

Sytuacja na rynku pamięci do zastosowań AI jest ekstremalna. Analitycy z firmy TrendForce prognozują, że w pierwszym kwartale 2026 roku średnie ceny pamięci DRAM przeznaczonej dla serwerów i systemów AI mogą wzrosnąć od 50 do 55 procent w porównaniu z poprzednim kwartałem. Tom Hsu, analityk TrendForce, określa taką skalę podwyżek mianem bezprecedensowej. Jednocześnie dostawcy nie są w stanie nadążyć z realizacją zamówień. Firma SK Hynix już w październiku ubiegłego roku poinformowała, że zabezpieczyła zamówienia na całą swoją planowaną produkcję pamięci HBM na rok 2026.

Giganci AI w pierwszej kolejności

Trzej główni producenci pamięci – Micron, SK Hynix i Samsung Electronics – odnotowują ogromne zyski, ale ich moce wytwórcze są w pełni obciążone przez największych graczy rynku AI. Sumit Sadana, dyrektor ds. biznesowych w Micron, przyznał podczas targów CES w Las Vegas, że skokowy wzrost popytu znacznie przekracza możliwości produkcyjne nie tylko jego firmy, ale i całej branży. Notowania Microna wzrosły o 247% w ciągu ostatniego roku, a zysk netto firmy niemal potroił się w ostatnim kwartale. Podobne, potrójne wzrosty zysków operacyjnych zapowiedział też Samsung.

„Widzieliśmy bardzo ostry, znaczący wzrost popytu na pamięć, który daleko wyprzedził naszą zdolność do jej dostarczenia i, według naszej oceny, możliwości produkcyjne całego przemysłu pamięciowego” – powiedział Sumit Sadana z Micron.

Czym jest HBM i dlaczego jej produkcja jest tak wymagająca?

Pamięć HBM (High-Bandwidth Memory) to specjalistyczny, wysokowydajny typ pamięci RAM, zaprojektowany do pracy w bezpośrednim sąsiedztwie procesorów AI, takich jak GPU Nvidii. Jej kluczową cechą jest ogromna przepustowość, niezbędna do zasilania obliczeń wielkich modeli językowych (LLM). W przeciwieństwie do standardowej pamięci DDR w laptopach, HBM produkowana jest w skomplikowanym procesie pionowego „składania” – od 12 do 16 warstw pamięci układa się w jednej strukturze, tworząc swego rodzaju „kostkę”.

Kosztowny kompromis produkcyjny

To zaawansowane wytwarzanie ma swoją cenę i ogranicza ogólną podaż. Jak wyjaśnia Sadana, gdy Micron produkuje jedną jednostkę pamięci HBM, musi zrezygnować z wyprodukowania trzech jednostek konwencjonalnej pamięci dla innych urządzeń. Ten stosunek „trzy do jednego” oznacza, że każdy wzrost produkcji HBM automatycznie zmniejsza podaż pamięci dla rynku konsumenckiego – smartfonów, laptopów i komputerów osobistych. Producenci pamięci świadomie faworyzują segment serwerowy i HBM, ponieważ firmy świadczące usługi chmurowe są mniej wrażliwe na zmiany cen niż zwykli konsumenci.

„Ściana pamięci” – nowe wąskie gardło rozwoju AI

Eksperci branżowi od jakiegoś czasu identyfikują tzw. „ścianę pamięci” (memory wall) jako główną barierę rozwoju sztucznej inteligencji. Podczas gdy moc obliczeniowa GPU rośnie w zawrotnym tempie, prędkość i pojemność pamięci nie nadążają. Powoduje to, że potężne procesory często „czekają” na dane potrzebne do uruchomienia modeli LLM, marnując swój potencjał. Sha Rabii, współzałożyciel Majestic Labs, który wcześniej pracował nad układami krzemowymi w Google i Meta, wskazuje, że poprzednie generacje AI oparte na sieciach konwolucyjnych wymagały mniej pamięci niż dzisiejsze duże modele językowe.

Większa i szybsza pamięć pozwala systemom AI na uruchamianie większych modeli, obsługę większej liczby użytkowników jednocześnie oraz implementację rozbudowanych „okien kontekstowych”, które umożliwiają chatbotom zapamiętywanie wątków rozmów. Firma Rabiego, Majestic Labs, projektuje system inferencyjny z 128 terabajtami pamięci, co ma pozwolić na obsługę znacznie większej liczby użytkowników przy mniejszym zużyciu energii.

Skutki dla rynku konsumenckiego są już odczuwalne

Niedobór i wzrost cen pamięci przestają być problemem wyłącznie centrów danych. Jak podaje TrendForce, udział kosztów pamięci w całkowitym koszcie sprzętu laptopa wzrósł do około 20%, podczas gdy w pierwszej połowie 2025 roku wynosił od 10 do 18%. Dean Beeler, współzałożyciel Juice Labs, podzielił się w mediach społecznościowych przykładem: kilka miesięcy temu za 256 GB pamięci RAM do komputera zapłacił około 300 dolarów. Dziś ten sam zakup mógłby kosztować blisko 3000 dolarów.

Reakcje gigantów tech i perspektywy na przyszłość

Firmy z sektora elektroniki użytkowej muszą mierzyć się z nową rzeczywistością. Podczas gdy Apple w październiku bagatelizowało wpływ wzrostów cen pamięci, Dell Technologies w listopadzie otwarcie przyznał, że spodziewa się wzrostu kosztów produkcji wszystkich swoich produktów. Jefferey Clarke, dyrektor operacyjny Della, stwierdził, że choć firma będzie starała się złagodzić ten wpływ poprzez zmianę konfiguracji produktów, to ostatecznie skutki niedoboru prawdopodobnie odbiją się na cenach detalicznych. „Nie widzę, jak to może nie dotrzeć do bazy klientów” – powiedział Clarke.

Nvidia też nie ma łatwo

Nawet Nvidia, będąca największym odbiorcą HBM, musi odpowiadać na trudne pytania. Na konferencji prasowej podczas CES, prezes Jensen Huang został zapytany, czy obawia się niezadowolenia klientów gamingowych, którzy mogą odczuwać wzrost cen konsol i kart graficznych z powodu niedoborów pamięci. Huang przyznał, że ostatecznym rozwiązaniem musi być budowa nowych fabryk pamięci, ponieważ potrzeby AI są po prostu zbyt duże. Zapewnił jednak, że Nvidia, jako długoterminowy i bardzo duży klient, ma dobre relacje z dostawcami, którzy intensywnie rozbudowują moce.

„Ponieważ nasz popyt jest tak wysoki, każda fabryka, każdy dostawca HBM, zwiększa moce i wszyscy radzą sobie świetnie” – skomentował Jensen Huang, prezes Nvidii.

Micron pracuje nad zwiększeniem zdolności produkcyjnych, budując nowe fabryki („faby”) w Boise w stanie Idaho, które mają rozpocząć produkcję odpowiednio w 2027 i 2028 roku, oraz w Clay w stanie Nowy Jork, planowaną na 2030 rok. Jednak na najbliższy czas sytuacja pozostaje napięta. „Jesteśmy wyprzedani na 2026 rok” – podsumowuje Sumit Sadana z Micron. W najlepszym przypadku firma może zaspokoić jedynie dwie trzecie średnioterminowego zapotrzebowania niektórych klientów.

Obecny kryzys na rynku pamięci HBM to wyraźny sygnał, że rozwój sztucznej inteligencji na obecną skalę napotyga fundamentalne ograniczenia w łańcuchu dostaw. Niedobór ten nie tylko winduje koszty operacyjne gigantów tech, ale zaczyna realnie wpływać na rynek konsumencki, przepowiadając prawdopodobne podwyżki cen urządzeń elektronicznych. To także zachęta do poszukiwania nowych architektur i rozwiązań, które mogłyby zmniejszyć zależność od tego deficytowego, choć wciąż kluczowego, komponentu.

Źródło