W świecie hardware’u dla sztucznej inteligencji dochodzi do przełomowych sojuszy. Gigant Nvidia ogłosił zawarcie umowy licencyjnej z młodą firmą Groq, specjalizującą się w tworzeniu wyspecjalizowanych procesorów do wnioskowania AI. Transakcja, której wartość szacuje się na około 20 miliardów dolarów, nie jest klasycznym przejęciem, lecz tak zwanym „reverse acquihire”. Oznacza to, że Nvidia zyskuje dostęp do kluczowej technologii i zatrudnia część zespołu startupu, pozwalając mu dalej działać samodzielnie. To strategiczny ruch, mający na celu wzmocnienie pozycji Nvidii w obszarze efektywnej i szybkiej inferencji modeli AI.
Na czym polega przełomowa umowa między Nvidią a Groq?
Porozumienie między tymi firmami to przykład nowego trendu w branży technologicznej. Zamiast kosztownych i często blokowanych przez regulatorów przejęć, wielkie korporacje decydują się na transakcje licencyjne połączone z pozyskaniem talentów. Dzięki takiemu zabiegowi Nvidia unika potencjalnego nadzoru antymonopolowego. Jak podał Alex Davis z firmy inwestycyjnej Disruptive Technology Advisers, kwota 20 miliardów dolarów stanowi znaczącą premię w stosunku do wyceny Groq z września, która wynosiła około 6,9 miliarda.
Reverse acquihire jako nowa strategia gigantów
W ciągu ostatnich trzech lat podobne strategie stosowały już inne technologiczne potęgi, takie jak Microsoft czy Meta. Pozwala im to na szybkie wzbogacenie swojej mapy drogowej w dziedzinie AI o innowacyjne rozwiązania, bez angażowania się w długotrwałe procesy przejęciowe. W przypadku Nvidii, umowa obejmuje nie tylko licencję na „technologię inferencyjną” Groq, ale także zatrudnienie założyciela i CEO Jonathana Rossa oraz prezesa Sunny’ego Madry.
Groq pozostanie niezależną firmą
Co ciekawe, startup nie zniknie z rynku. Groq będzie kontynuował działalność jako samodzielny podmiot, a stanowisko głównego dyrektora wykonawczego obejmie po Rossie obecny dyrektor finansowy, Simon Edwards. Firma ma solidne podstawy do dalszego rozwoju – według informacji z lipca br. prognozowała, że zakończy bieżący rok z przychodami na poziomie pół miliarda dolarów, oferując swoje usługi głównie przez platformę chmurową GroqCloud.
Rewolucyjna technologia LPU – serce umowy
Prawdziwym przedmiotem zainteresowania Nvidii jest flagowy wynalazek Groq – procesor LPU (Language Processing Unit). To wyspecjalizowany układ zaprojektowany od podstaw do wykonywania operacji wnioskowania przez modele sztucznej inteligencji. Jego główną przewagą ma być niezwykła efektywność energetyczna. Według deklaracji startupu, LPU jest w stanie realizować zadania inferencji przy użyciu dziesięciokrotnie mniejszej mocy niż tradycyjne karty graficzne (GPU).
Determinizm i szybka pamięć SRAM
Kluczem do tej wydajności jest deterministyczna architektura chipa. W przeciwieństwie do standardowych, niedeterministycznych procesorów, LPU precyzyjnie kontroluje czasowanie obliczeń. Eliminuje to nieprzewidziane opóźnienia przetwarzania, które mogą zakłócać kolejność wykonywania operacji, co jest szczególnie istotne w złożonych zadaniach AI. Dodatkowo, układ dysponuje setkami megabajtów superszybkiej pamięci SRAM zintegrowanej na chipie. Ten rodzaj pamięci jest szybszy i bardziej energooszczędny niż pamięć HBM stosowana w zaawansowanych GPU.
Rozwiązanie problemu dryfu zegara
Groq opracował również własną technologię łączenia serwerów wyposażonych w LPU w klastry inferencyjne, nazwaną RealScale. Jej zadaniem jest rozwiązanie złożonego problemu technicznego zwanego crystal-based drift (dryft oparty na krysztale). Zjawisko to polega na nieoczekiwanym spowolnieniu częstotliwości taktowania procesora, spowodowanym niedoskonałościami mikroskopijnego kryształu kwarcu pełniącego rolę zegara. RealScale potrafi automatycznie korygować taktowanie procesorów w klastrze, aby zniwelować negatywne skutki tego dryfu i utrzymać wysoką wydajność całego systemu.
Planujemy zintegrować procesory o niskich opóźnieniach Groq z architekturą Nvidia AI Factory, rozszerzając platformę o jeszcze szerszy zakres obciążeń związanych z wnioskowaniem AI i zadaniami w czasie rzeczywistym – przekazał pracownikom w wewnętrznym memo Jensen Huang, CEO Nvidii.
Integracja z Nvidia AI Factory i przyszłość rynku
Jak wynika z wewnętrznej komunikacji szefa Nvidii, technologia Groq ma zostać włączona do koncepcji AI Factory. To wizja Nvidii dotycząca scentralizowanych, fabrycznych centrów przetwarzania danych, dedykowanych trenowaniu i uruchamianiu modeli AI. Integracja wydajnych układów LPU ma poszerzyć możliwości tej platformy o nowe, wymagające niskich opóźzeń zastosowania inferencyjne i zadania czasu rzeczywistego.
Co oferuje platforma GroqCloud?
Niezależnie od współpracy z Nvidią, Groq rozwija własną ofertę dostępną przez chmurę. GroqCloud to nie tylko dostęp do mocy obliczeniowej procesorów LPU, ale także biblioteka otwartoźródłowych modeli AI oraz narzędzia, takie jak wyszukiwarki, które modele mogą wykorzystywać do przetwarzania zapytań użytkowników. Pokazuje to, że startup buduje kompleksowe środowisko dla developerów AI.
Implikacje dla konkurencji i ekosystemu AI
Ta transakcja wyraźnie sygnalizuje, że Nvidia traktuje obszar wyspecjalizowanej, energooszczędnej inferencji jako strategiczny. Zamiast rozwijać takie rozwiązania od zera, gigant decyduje się na pozyskanie zaawansowanej technologii z zewnątrz. To ruch, który może przyspieszyć ewolucję hardware’u AI w kierunku większej specjalizacji, gdzie obok uniwersalnych GPU współistnieją układy zaprojektowane pod konkretne fazy pracy modeli – trening i wnioskowanie.
Umowa licencyjna Nvidii z Groq to więcej niż tylko kolejna wiadomość o współpracy w branży. To przykład dojrzewającego rynku, gdzie innowacje pochodzące od śmiałych startupów są wchłaniane przez liderów, kształtując przyszłe standardy. Dla ekosystemu sztucznej inteligencji oznacza to perspektywę szybszych, tańszych i bardziej dostępnych usług inferencyjnych. Dla Nvidii – wzmocnienie jej architektury AI Factory o technologie, które mogą zdefiniować kolejną dekadę obliczeń. Sukces tej integracji pokaże, czy specjalizowane procesory, takie jak LPU, staną się nieodzownym elementem infrastruktury każdej dużej platformy AI.




