AI-tokenit ovat pienin yksikkö, jota suuret kielimallit (LLM:t) käyttävät tekstin käsittelyyn. Toisin kuin merkkimäärä, token-laskenta vaihtelee kielen ja mallin mukaan.
Token-Määritelmä
Tokenit ovat sanoja, sanan osia, välimerkkejä tai symboleja. Englanniksi "Hello" = 1 token; japaniksi "こんにちは" = tyypillisesti 2-3 tokenia. Välilyönnit ja rivinvaihdot lasketaan myös tokeneiksi.
Ero Tokenien ja Merkkien Välillä
Englanti: ~4 merkkiä = 1 token, Japani: ~1.5-2 merkkiä = 1 token, Koodi: vaihtelee syntaksin mukaan. Esimerkki: "Hello World" (11 merkkiä) = 2 tokenia, "こんにちは世界" (7 merkkiä) = 4-5 tokenia.
Miksi Token-Määrä on Tärkeä
AI API -hinnoittelu perustuu token-määrään (esim. GPT-4: $0.03 per 1000 tokenia). Jokaisella mallilla on token-rajoitukset (GPT-4 8K = 8192 tokenia), ja niiden ylittäminen aiheuttaa virheitä. Token-määrien ymmärtäminen on olennaista tehokkaaseen kehotteen suunnitteluun.
Token-Rajat Tärkeimmillä AI-Malleilla
GPT-4 (8K): 8 192 tokenia, GPT-4 (32K): 32 768 tokenia, GPT-4 Turbo: 128 000 tokenia, GPT-3.5 Turbo: 16 385 tokenia, Claude 3: 200 000 tokenia, Gemini Pro: 32 768 tokenia, Gemini Ultra: 100 000 tokenia (suunniteltu).
Hintavertailu Tärkeimmillä AI-Malleilla
GPT-4: syöte $0.03/1K, tuloste $0.06/1K, GPT-4 Turbo: syöte $0.01/1K, tuloste $0.03/1K, GPT-3.5 Turbo: syöte $0.0005/1K, tuloste $0.0015/1K, Claude 3 Opus: syöte $0.015/1K, tuloste $0.075/1K, Claude 3 Sonnet: syöte $0.003/1K, tuloste $0.015/1K, Gemini Pro: ilmainen taso saatavilla (katso viralliset dokumentit).
Kuinka Tokenisaatio Toimii
AI-mallit jakavat tekstin tokeneiksi käyttämällä algoritmeja kuten BPE (Byte Pair Encoding) tai WordPiece. Yleiset sanat muuttuvat 1 tokeniksi; harvinaiset sanat jaetaan useisiin tokeneihin. Emojit ja erikoismerkit voivat olla useita tokeneita per merkki.
Syöte-Tokenit vs Tuloste-Tokenit
AI API:t veloittavat eri tavalla syötteestä (kehotukset) ja tulosteesta (generoitu teksti). Tuloste-tokenit ovat tyypillisesti kalliimpia (esim. GPT-4 tuloste maksaa 2x syötteen). Kustannusten optimoimiseksi rajoita tuloste-tokeneita käyttämällä max_tokens-parametria.
Tämän Työkalun Tarkkuus
Tämä työkalu simuloi virallisia tokenisaattoreita jokaiselle mallille, mutta ei takaa täydellistä tarkkuutta. Tarkkoihin token-määriin käytä virallisia työkaluja (OpenAI:n tiktoken, Anthropicin Claude Tokenizer jne.). Se tarjoaa riittävän tarkkuuden arviointitarkoituksiin.