Token: co to jest i dlaczego AI liczy tekst w tokenach?
Token to kawałek tekstu, którym AI mierzy długość. Jedno polskie słowo to zwykle 1–3 tokeny. Tokeny decydują ile AI może przeczytać i napisać.
Wyobraź sobie...
Masz abonament na telefon z limitem minut. Każda rozmowa zużywa minuty, i te wychodzące, i przychodzące.
W AI tokeny działają tak samo: Twoje pytanie zużywa tokeny i odpowiedź AI też. Im dłuższa rozmowa, tym więcej tokenów „spalasz". Dlatego długie dokumenty kosztują więcej niż krótkie pytania.
Gdzie to spotkasz?
- Limit w ChatGPT – „Twoja wiadomość jest za długa", to właśnie limit tokenów
- Cenniki API (np. OpenAI, Anthropic) – płacisz za tokeny. GPT-4o kosztuje ok. 10 zł za milion tokenów wejściowych
- Okno kontekstu – np. „128k tokenów" oznacza ile tekstu AI widzi naraz (ok. 96 000 słów)
- Limity odpowiedzi – AI ma też limit ile tokenów może wygenerować w jednej odpowiedzi
Najczęstsze pytania o tokeny
Ile tokenów ma jedno słowo?
W języku angielskim ok. 1–1.5 tokena na słowo. Po polsku więcej, ok. 1.5–3 tokeny na słowo, bo polskie słowa są dłuższe i mają końcówki (odmiana). Zdanie „Dzień dobry, jak mogę pomóc?" to ok. 12 tokenów.
Dlaczego tokeny są ważne?
Bo decydują o trzech rzeczach: (1) ile AI kosztuje (płacisz za tokeny w API), (2) ile tekstu możesz wrzucić do jednej rozmowy (okno kontekstu), (3) jak długą odpowiedź AI może wygenerować.
Czy za tokeny się płaci?
W darmowych planach ChatGPT/Claude, nie bezpośrednio, ale masz limity. W płatnych API (dla programistów i firm), tak, płacisz za każdy token. Ceny spadają z roku na rok. W 2024 GPT-4 kosztował 10x więcej niż w 2026.