AI токените са най-малката единица, използвана от големите езикови модели (LLM) за обработка на текст. За разлика от броя символи, броенето на токени варира според езика и модела.
Дефиниция на токен
Токените са единици от думи, части от думи, пунктуация или символи. В английския език "Hello" = 1 токен; в японския "こんにちは" = обикновено 2-3 токена. Интервалите и преходите на нов ред също се броят като токени.
Разлика между токени и символи
Английски: ~4 символа = 1 токен, японски: ~1.5-2 символа = 1 токен, код: варира според синтаксиса. Пример: "Hello World" (11 символа) = 2 токена, "こんにちは世界" (7 символа) = 4-5 токена.
Защо броят на токените е важен
AI API ценообразуването се базира на броя токени (напр. GPT-4: $0.03 за 1000 токена). Всеки модел има лимити на токени (GPT-4 8K = 8192 токена), и превишаването им причинява грешки. Разбирането на броя токени е от съществено значение за ефективен дизайн на подкани.
Лимити на токени по основни AI модели
GPT-4 (8K): 8192 токена, GPT-4 (32K): 32 768 токена, GPT-4 Turbo: 128 000 токена, GPT-3.5 Turbo: 16 385 токена, Claude 3: 200 000 токена, Gemini Pro: 32 768 токена, Gemini Ultra: 100 000 токена (планирано).
Сравнение на цени по основни AI модели
GPT-4: вход $0.03/1K, изход $0.06/1K, GPT-4 Turbo: вход $0.01/1K, изход $0.03/1K, GPT-3.5 Turbo: вход $0.0005/1K, изход $0.0015/1K, Claude 3 Opus: вход $0.015/1K, изход $0.075/1K, Claude 3 Sonnet: вход $0.003/1K, изход $0.015/1K, Gemini Pro: безплатен план наличен (вижте официалната документация).
Как работи токенизацията
AI моделите разделят текста на токени, използвайки алгоритми като BPE (Byte Pair Encoding) или WordPiece. Често срещаните думи стават 1 токен; редките думи се разделят на множество токени. Емоджитата и специалните символи могат да бъдат множество токени за символ.
Входни токени срещу изходни токени
AI API таксуват различно за вход (подкани) и изход (генериран текст). Изходните токени обикновено са по-скъпи (напр. изходът на GPT-4 струва 2 пъти повече от входа). За оптимизация на разходите ограничете изходните токени, използвайки параметъра max_tokens.
Точност на този инструмент
Този инструмент симулира официалните токенизатори за всеки модел, но не гарантира перфектна точност. За прецизен брой токени използвайте официални инструменти (tiktoken на OpenAI, Claude Tokenizer на Anthropic и др.). Предоставя достатъчна точност за прогнозни цели.