Token: co to jest i dlaczego AI liczy tekst w tokenach?

Token to kawałek tekstu, którym AI mierzy długość. Jedno polskie słowo to zwykle 1–3 tokeny. Tokeny decydują ile AI może przeczytać i napisać.

Wyobraź sobie...

Masz abonament na telefon z limitem minut. Każda rozmowa zużywa minuty, i te wychodzące, i przychodzące.

W AI tokeny działają tak samo: Twoje pytanie zużywa tokeny i odpowiedź AI też. Im dłuższa rozmowa, tym więcej tokenów „spalasz". Dlatego długie dokumenty kosztują więcej niż krótkie pytania.

Gdzie to spotkasz?

  • Limit w ChatGPT – „Twoja wiadomość jest za długa", to właśnie limit tokenów
  • Cenniki API (np. OpenAI, Anthropic) – płacisz za tokeny. GPT-4o kosztuje ok. 10 zł za milion tokenów wejściowych
  • Okno kontekstu – np. „128k tokenów" oznacza ile tekstu AI widzi naraz (ok. 96 000 słów)
  • Limity odpowiedzi – AI ma też limit ile tokenów może wygenerować w jednej odpowiedzi

Najczęstsze pytania o tokeny

Ile tokenów ma jedno słowo?

W języku angielskim ok. 1–1.5 tokena na słowo. Po polsku więcej, ok. 1.5–3 tokeny na słowo, bo polskie słowa są dłuższe i mają końcówki (odmiana). Zdanie „Dzień dobry, jak mogę pomóc?" to ok. 12 tokenów.

Dlaczego tokeny są ważne?

Bo decydują o trzech rzeczach: (1) ile AI kosztuje (płacisz za tokeny w API), (2) ile tekstu możesz wrzucić do jednej rozmowy (okno kontekstu), (3) jak długą odpowiedź AI może wygenerować.

Czy za tokeny się płaci?

W darmowych planach ChatGPT/Claude, nie bezpośrednio, ale masz limity. W płatnych API (dla programistów i firm), tak, płacisz za każdy token. Ceny spadają z roku na rok. W 2024 GPT-4 kosztował 10x więcej niż w 2026.

Chcesz nauczyć się używać AI w praktyce?

Zobacz szkolenia AI w Polsce →