Grok 2. Nowy model LLM od Elona Muska zaskakuje

2 mies. temu 16

Czasownik „to grok” używany jest jako opisujący intuicyjne rozumienie jakiegoś zagadnienia. Wydźwięk słowa jest bardzo nieformalny, coś w stylu polskiego „łapać” czy „czaić”. I właśnie takim terminem Elon Musk nazwał swój projekt AI. Kilka miesięcy temu pisaliśmy o wypuszczeniu pierwszej wersji tego LLM-u, jednak w sierpniu 2024 zespół Muska wypuścił kolejną wersję Groka. Dodajmy, zaskakująco dobrą.

Póki co Grok 2 jest wypuszczony w wersji beta. Dostęp do niego mogą zyskać jedynie subskrybenci pakietu Premium na należącym do Elona Muska portalu X (dawniej znanym jako Twitter). Model, a właściwie modele (wypuszczono Grok 2 i Grok 2-mini) były uczone na 20 tysiącach kart graficznych Nvidia H100. Sami twórcy nie podają jednak liczby parametrów modeli językowych.

Grok 2 Benchmark https://x.ai/blog/grok-2

Grok 2 to w tej chwili najpotężniejszy LLM do zespołu platformy X. Może przetwarzać zarówno tekst, jak i obrazy. W testach przeprowadzonych na platformie ChatBot Arena, uzyskuje znacznie lepsze wyniki niż chat GPT-4o czy LLaMa 3 450B. Wkrótce Grok 2 będzie dostępny również poprzez API. Z kolei Grok 2-mini, to lekka wersja modelu od Elona Muska. Optymalizuje szybkość działania, może jednak popełniać więcej drobnych błędów.

Jak widać, nowe modele językowe Grok pozytywnie zaskoczyły w testach, szczególnie, jeśli weźmie się pod uwagę, że bardzo duży postęp dokonał się w ciągu zaledwie 4-5 miesięcy. Na horyzoncie widać jednak już trzecią generację Groka. Model, który ujrzy światło dzienne za jakiś czas, jest szkolony na pięć razy większej liczbie procesorów graficznych. To może zwiastować przełom.

Czytaj więcej
Radio Game On-line