Miliardy parametrów — co to znaczy?
Jedna analogia. Jedna praktyczna konsekwencja. I tyle wystarczy.
Parametr to jedna liczba z ogromnej tablicy liczb.
Model 7B ma siedem miliardów takich liczb — razem tworzą jego "wiedzę".
Model 7B ma siedem miliardów takich liczb — razem tworzą jego "wiedzę".
Analogia: model AI to przepis na człowieka
Uproszczenie — ale działa
Trening
Model czyta setki miliardów słów z internetu, książek, kodu. Uczy się które słowa i zdania pasują do których kontekstów. Jak dziecko które uczy się języka — tyle że przerabia miliony razy więcej tekstu.
Parametry
Każde "skojarzenie" które model nauczył się podczas treningu jest zapisane jako liczba — jeden parametr. 7 miliardów skojarzeń = model 7B. To jest zapisana wiedza, nie działający mózg.
Wnioskowanie
Gdy zadajesz pytanie, model używa tych liczb żeby przewidywać które słowo powinno pojawić się jako następne. Jedno po drugim. To jest właśnie "generowanie odpowiedzi".
Więcej = lepiej?
Generalnie tak — ale z malejącym zwrotem. Model 70B nie jest 10× lepszy niż 7B. Jest lepszy w trudnych zadaniach wymagających rozumowania. W prostych zadaniach różnica jest mała.
Skala — żeby mieć punkt odniesienia
2B
Telefon mid-range — dziś. Prosta rozmowa, tłumaczenie, streszczenie. Offline.
4–8B
Dobry telefon / laptop — dziś. Solidna jakość dla większości zadań biurowych.
26–70B
Komputer z mocną kartą graficzną — dziś. Zaawansowane rozumowanie, kod, analiza dokumentów.
100B+
Serwer w chmurze — Claude, GPT-4, Gemini Ultra. Frontier. Drogo.
Czemu "26B A4B" — co znaczy to "A"?
MoE (Mixture of Experts) to architektura gdzie model ma wielu "specjalistów" — i przy każdym zapytaniu aktywuje tylko kilku z nich. Gemma 4 26B ma 26 miliardów parametrów zapisanych, ale przy każdym tokenie używa tylko ~4 miliardów.
Efekt: prędkość i zużycie RAM jak modelu 4B, jakość jak modelu 26B. Dlatego działa na telefonie mimo że "ma 26B".
Efekt: prędkość i zużycie RAM jak modelu 4B, jakość jak modelu 26B. Dlatego działa na telefonie mimo że "ma 26B".
Jak to wyglądało 2 lata temu — a jak dziś
440×
mniej GPU potrzeba do jakości GPT-4
25 000 A100 → RTX 3090
25 000 A100 → RTX 3090
3 lata
od niedostępnego lokalnie
do telefonu w kieszeni
do telefonu w kieszeni
0 zł
koszt API za uruchomienie
lokalnie offline
lokalnie offline
⚠ Uwaga metodologiczna: OpenAI i Anthropic nie ujawniają oficjalnie liczby parametrów od GPT-4 wzwyż. Liczby z tabeli to szacunki z analiz badaczy i przecieków — używaj je jako punkt orientacyjny, nie fakt.
Praktyczna konsekwencja: Liczba parametrów nie mówi Ci wszystkiego. Model 4B MoE może być mądrzejszy od gęstego 13B w konkretnym zadaniu — i działać na Twoim telefonie. Patrz na benchmark dla swojego zadania, nie na sam rozmiar.