AI tokeny sú najmenšou jednotkou používanou veľkými jazykovými modelmi (LLM) na spracovanie textu. Na rozdiel od počtu znakov sa počítanie tokenov líši podľa jazyka a modelu.
Definícia tokenu
Tokeny sú jednotky slov, častí slov, interpunkcie alebo symbolov. V angličtine "Hello" = 1 token; v japončine "こんにちは" = typicky 2-3 tokeny. Medzery a zalomenia riadkov sa tiež počítajú ako tokeny.
Rozdiel medzi tokenmi a znakmi
Angličtina: ~4 znaky = 1 token, japončina: ~1,5-2 znaky = 1 token, kód: líši sa podľa syntaxe. Príklad: "Hello World" (11 znakov) = 2 tokeny, "こんにちは世界" (7 znakov) = 4-5 tokenov.
Prečo záleží na počte tokenov
Ceny AI API sú založené na počte tokenov (napr. GPT-4: $0.03 za 1000 tokenov). Každý model má limity tokenov (GPT-4 8K = 8192 tokenov) a ich prekročenie spôsobuje chyby. Pochopenie počtu tokenov je nevyhnutné pre efektívny návrh výziev.
Limity tokenov u hlavných AI modelov
GPT-4 (8K): 8 192 tokenov, GPT-4 (32K): 32 768 tokenov, GPT-4 Turbo: 128 000 tokenov, GPT-3.5 Turbo: 16 385 tokenov, Claude 3: 200 000 tokenov, Gemini Pro: 32 768 tokenov, Gemini Ultra: 100 000 tokenov (plánované).
Porovnanie cien u hlavných AI modelov
GPT-4: vstup $0.03/1K, výstup $0.06/1K, GPT-4 Turbo: vstup $0.01/1K, výstup $0.03/1K, GPT-3.5 Turbo: vstup $0.0005/1K, výstup $0.0015/1K, Claude 3 Opus: vstup $0.015/1K, výstup $0.075/1K, Claude 3 Sonnet: vstup $0.003/1K, výstup $0.015/1K, Gemini Pro: dostupná bezplatná úroveň (pozri oficiálnu dokumentáciu).
Ako funguje tokenizácia
AI modely rozdeľujú text na tokeny pomocou algoritmov ako BPE (Byte Pair Encoding) alebo WordPiece. Bežné slová sa stanú 1 tokenom; zriedkavé slová sa rozdelia na viac tokenov. Emotikony a špeciálne znaky môžu byť viac tokenov na znak.
Vstupné tokeny vs. výstupné tokeny
AI API účtujú rôzne za vstup (výzvy) a výstup (generovaný text). Výstupné tokeny sú zvyčajne drahšie (napr. výstup GPT-4 stojí 2× viac ako vstup). Na optimalizáciu nákladov obmedzte výstupné tokeny pomocou parametra max_tokens.
Presnosť tohto nástroja
Tento nástroj simuluje oficiálne tokenizátory pre každý model, ale nezaručuje dokonalú presnosť. Pre presný počet tokenov použite oficiálne nástroje (tiktoken od OpenAI, Claude Tokenizer od Anthropic atď.). Poskytuje dostatočnú presnosť na účely odhadu.