AI tokens är den minsta enheten som stora språkmodeller (LLM:er) använder för att bearbeta text. Till skillnad från tecken-antal varierar token-räkning efter språk och modell.
Token Definition
Tokens är enheter av ord, delar av ord, interpunktion eller symboler. På engelska är "Hello" = 1 token; på japanska är "こんにちは" typiskt = 2-3 tokens. Mellanslag och radbrytningar räknas också som tokens.
Skillnad mellan Tokens och Tecken
Engelska: ~4 tecken = 1 token, Japanska: ~1.5-2 tecken = 1 token, Kod: varierar beroende på syntax. Exempel: "Hello World" (11 tecken) = 2 tokens, "こんにちは世界" (7 tecken) = 4-5 tokens.
Varför Token-Antal är Viktigt
AI API-prissättning baseras på token-antal (t.ex. GPT-4: $0.03 per 1000 tokens). Varje modell har token-gränser (GPT-4 8K = 8192 tokens), och att överskrida dem orsakar fel. Förståelse av token-antal är väsentligt för effektiv prompt-design.
Token-Gränser för Större AI-Modeller
GPT-4 (8K): 8 192 tokens, GPT-4 (32K): 32 768 tokens, GPT-4 Turbo: 128 000 tokens, GPT-3.5 Turbo: 16 385 tokens, Claude 3: 200 000 tokens, Gemini Pro: 32 768 tokens, Gemini Ultra: 100 000 tokens (planerat).
Prisjämförelse för Större AI-Modeller
GPT-4: indata $0.03/1K, utdata $0.06/1K, GPT-4 Turbo: indata $0.01/1K, utdata $0.03/1K, GPT-3.5 Turbo: indata $0.0005/1K, utdata $0.0015/1K, Claude 3 Opus: indata $0.015/1K, utdata $0.075/1K, Claude 3 Sonnet: indata $0.003/1K, utdata $0.015/1K, Gemini Pro: gratis nivå tillgänglig (se officiella dokument).
Hur Tokenisering Fungerar
AI-modeller delar upp text i tokens med hjälp av algoritmer som BPE (Byte Pair Encoding) eller WordPiece. Vanliga ord blir till 1 token; sällsynta ord delas i flera tokens. Emojier och specialtecken kan vara flera tokens per tecken.
Indata Tokens vs Utdata Tokens
AI API:er debiterar olika för indata (prompter) och utdata (genererad text). Utdata tokens är vanligtvis dyrare (t.ex. GPT-4 utdata kostar 2x indata). För kostnadsoptimering, begränsa utdata tokens genom att använda max_tokens-parametern.
Noggrannhet hos Detta Verktyg
Detta verktyg simulerar officiella tokenizers för varje modell men garanterar inte perfekt noggrannhet. För exakta token-antal, använd officiella verktyg (OpenAI:s tiktoken, Anthropic:s Claude Tokenizer etc.). Det ger tillräcklig noggrannhet för uppskattningsändamål.