Dodatek · M3 Co to są parametry modelu AI ← Porównanie modeli
Miliardy parametrów — co to znaczy?
Jedna analogia. Jedna praktyczna konsekwencja. I tyle wystarczy.
Parametr to jedna liczba z ogromnej tablicy liczb.
Model 7B ma siedem miliardów takich liczb — razem tworzą jego "wiedzę".
🍳
Analogia: model AI to przepis na człowieka
Uproszczenie — ale działa
Trening
Model czyta setki miliardów słów z internetu, książek, kodu. Uczy się które słowa i zdania pasują do których kontekstów. Jak dziecko które uczy się języka — tyle że przerabia miliony razy więcej tekstu.
Parametry
Każde "skojarzenie" które model nauczył się podczas treningu jest zapisane jako liczba — jeden parametr. 7 miliardów skojarzeń = model 7B. To jest zapisana wiedza, nie działający mózg.
Wnioskowanie
Gdy zadajesz pytanie, model używa tych liczb żeby przewidywać które słowo powinno pojawić się jako następne. Jedno po drugim. To jest właśnie "generowanie odpowiedzi".
Więcej = lepiej?
Generalnie tak — ale z malejącym zwrotem. Model 70B nie jest 10× lepszy niż 7B. Jest lepszy w trudnych zadaniach wymagających rozumowania. W prostych zadaniach różnica jest mała.
Skala — żeby mieć punkt odniesienia
2B
Telefon mid-range — dziś. Prosta rozmowa, tłumaczenie, streszczenie. Offline.
4–8B
Dobry telefon / laptop — dziś. Solidna jakość dla większości zadań biurowych.
26–70B
Komputer z mocną kartą graficzną — dziś. Zaawansowane rozumowanie, kod, analiza dokumentów.
100B+
Serwer w chmurze — Claude, GPT-4, Gemini Ultra. Frontier. Drogo.
Czemu "26B A4B" — co znaczy to "A"?
MoE (Mixture of Experts) to architektura gdzie model ma wielu "specjalistów" — i przy każdym zapytaniu aktywuje tylko kilku z nich. Gemma 4 26B ma 26 miliardów parametrów zapisanych, ale przy każdym tokenie używa tylko ~4 miliardów.

Efekt: prędkość i zużycie RAM jak modelu 4B, jakość jak modelu 26B. Dlatego działa na telefonie mimo że "ma 26B".
Jak to wyglądało 2 lata temu — a jak dziś
Rok
Model
Param.
Sprzęt do uruchomienia
2022
GPT-3.5
ChatGPT od startu · dziś wycofany
~175B
8 × karta A100 (640 GB VRAM)
cena sprzętu: ~250 000 USD
2023
GPT-4
Przełomowy · MoE · parametry tajne
~1 760B
Klaster ~25 000 × A100
trening: ~100 mln USD
2023
Claude 2
Anthropic · szacunek (nie ujawniają)
~130B
Klaster GPU serwerowych
niedostępne lokalnie
2024
Claude 3 Opus
Najlepszy model wtedy · dziś wycofany
~137B
Klaster H100
niedostępne lokalnie
2023
Llama 2 70B
Meta · open source · pierwszy lokalny gigant
70B
2 × RTX 3090 (48 GB VRAM)
lub 1× A100 80 GB · wolne
2024
Llama 3.1 8B
Meta · przełom dostępności · dense
8B
RTX 3060 12 GB (Q4)
pierwszy model klasy "laptop"
2026
Llama 4 Scout
Meta · MoE · 109B total / 17B active
109B
RTX 5060 Ti 16 GB (Q4)
jakość ≈ GPT-4 · ~430 USD karta
▼ lokalnie offline — od tu
2026
Gemma 4 E4B
Google · multimodal · audio · offline
4B
Telefon ≥8 GB RAM
Poco X7 Pro, iPhone 14 Pro+
2026
Gemma 4 26B A4B
26B łącznie · 4B aktywne · MoE
26B
RTX 3090 / Mac 24 GB (~18 GB)
jakość ≈ GPT-4 · cena ~6 000 PLN
440×
mniej GPU potrzeba do jakości GPT-4
25 000 A100 → RTX 3090
3 lata
od niedostępnego lokalnie
do telefonu w kieszeni
0 zł
koszt API za uruchomienie
lokalnie offline
⚠ Uwaga metodologiczna: OpenAI i Anthropic nie ujawniają oficjalnie liczby parametrów od GPT-4 wzwyż. Liczby z tabeli to szacunki z analiz badaczy i przecieków — używaj je jako punkt orientacyjny, nie fakt.
Praktyczna konsekwencja: Liczba parametrów nie mówi Ci wszystkiego. Model 4B MoE może być mądrzejszy od gęstego 13B w konkretnym zadaniu — i działać na Twoim telefonie. Patrz na benchmark dla swojego zadania, nie na sam rozmiar.