Czasownik „to grok” używany jest jako opisujący intuicyjne rozumienie jakiegoś zagadnienia. Wydźwięk słowa jest bardzo nieformalny, coś w stylu polskiego „łapać” czy „czaić”. I właśnie takim terminem Elon Musk nazwał swój projekt AI. Kilka miesięcy temu pisaliśmy o wypuszczeniu pierwszej wersji tego LLM-u, jednak w sierpniu 2024 zespół Muska wypuścił kolejną wersję Groka. Dodajmy, zaskakująco dobrą.
Póki co Grok 2 jest wypuszczony w wersji beta. Dostęp do niego mogą zyskać jedynie subskrybenci pakietu Premium na należącym do Elona Muska portalu X (dawniej znanym jako Twitter). Model, a właściwie modele (wypuszczono Grok 2 i Grok 2-mini) były uczone na 20 tysiącach kart graficznych Nvidia H100. Sami twórcy nie podają jednak liczby parametrów modeli językowych.
https://x.ai/blog/grok-2
Grok 2 to w tej chwili najpotężniejszy LLM do zespołu platformy X. Może przetwarzać zarówno tekst, jak i obrazy. W testach przeprowadzonych na platformie ChatBot Arena, uzyskuje znacznie lepsze wyniki niż chat GPT-4o czy LLaMa 3 450B. Wkrótce Grok 2 będzie dostępny również poprzez API. Z kolei Grok 2-mini, to lekka wersja modelu od Elona Muska. Optymalizuje szybkość działania, może jednak popełniać więcej drobnych błędów.
Jak widać, nowe modele językowe Grok pozytywnie zaskoczyły w testach, szczególnie, jeśli weźmie się pod uwagę, że bardzo duży postęp dokonał się w ciągu zaledwie 4-5 miesięcy. Na horyzoncie widać jednak już trzecią generację Groka. Model, który ujrzy światło dzienne za jakiś czas, jest szkolony na pięć razy większej liczbie procesorów graficznych. To może zwiastować przełom.