AI tokeni su najmanja jedinica koju Veliki Jezični Modeli (LLM) koriste za obradu teksta. Za razliku od broja znakova, brojanje tokena varira ovisno o jeziku i modelu.
Definicija Tokena
Tokeni su jedinice riječi, dijelovi riječi, interpunkcija ili simboli. U engleskom, "Hello" = 1 token; u japanskom, "こんにちは" = obično 2-3 tokena. Razmaci i prijelomi redaka također se računaju kao tokeni.
Razlika Između Tokena i Znakova
Engleski: ~4 znaka = 1 token, Japanski: ~1,5-2 znaka = 1 token, Kod: varira ovisno o sintaksi. Primjer: "Hello World" (11 znakova) = 2 tokena, "こんにちは世界" (7 znakova) = 4-5 tokena.
Zašto je Broj Tokena Važan
Cijene AI API-ja temelje se na broju tokena (npr. GPT-4: 0,03 $ po 1000 tokena). Svaki model ima ograničenja tokena (GPT-4 8K = 8192 tokena), a njihovo prekoračenje uzrokuje greške. Razumijevanje broja tokena bitno je za učinkovit dizajn upita.
Ograničenja Tokena po Glavnim AI Modelima
GPT-4 (8K): 8.192 tokena, GPT-4 (32K): 32.768 tokena, GPT-4 Turbo: 128.000 tokena, GPT-3.5 Turbo: 16.385 tokena, Claude 3: 200.000 tokena, Gemini Pro: 32.768 tokena, Gemini Ultra: 100.000 tokena (planirano).
Usporedba Cijena po Glavnim AI Modelima
GPT-4: ulaz 0,03 $/1K, izlaz 0,06 $/1K, GPT-4 Turbo: ulaz 0,01 $/1K, izlaz 0,03 $/1K, GPT-3.5 Turbo: ulaz 0,0005 $/1K, izlaz 0,0015 $/1K, Claude 3 Opus: ulaz 0,015 $/1K, izlaz 0,075 $/1K, Claude 3 Sonnet: ulaz 0,003 $/1K, izlaz 0,015 $/1K, Gemini Pro: besplatna razina dostupna (pogledajte službenu dokumentaciju).
Kako Funkcionira Tokenizacija
AI modeli dijele tekst na tokene koristeći algoritme poput BPE (Byte Pair Encoding) ili WordPiece. Uobičajene riječi postaju 1 token; rijetke riječi dijele se na više tokena. Emoji i posebni znakovi mogu biti više tokena po znaku.
Ulazni Tokeni vs Izlazni Tokeni
AI API-ji različito naplaćuju ulaz (upite) i izlaz (generirani tekst). Izlazni tokeni obično su skuplji (npr. GPT-4 izlaz košta 2 puta više od ulaza). Za optimizaciju troškova, ogranićite izlazne tokene koristeći parametar max_tokens.
Točnost Ovog Alata
Ovaj alat simulira službene tokenizatore za svaki model, ali ne jamči savršenu točnost. Za precizne brojeve tokena koristite službene alate (OpenAI-jev tiktoken, Anthropic-ov Claude Tokenizer itd.). Pruža dovoljnu točnost za potrebe procjene.