Токены AI - это наименьшая единица, используемая большими языковыми моделями (LLM) для обработки текста. В отличие от количества символов, подсчёт токенов различается в зависимости от языка и модели.
Определение токена
Токены - это единицы слов, частей слов, пунктуации или символов. В английском языке "Hello" = 1 токен; в японском "こんにちは" = обычно 2-3 токена. Пробелы и переносы строк также считаются токенами.
Разница между токенами и символами
Английский: ~4 символа = 1 токен, японский: ~1,5-2 символа = 1 токен, код: различается в зависимости от синтаксиса. Пример: "Hello World" (11 символов) = 2 токена, "こんにちは世界" (7 символов) = 4-5 токенов.
Почему важно количество токенов
Ценообразование API AI основано на количестве токенов (например, GPT-4: $0.03 за 1000 токенов). Каждая модель имеет лимиты токенов (GPT-4 8K = 8192 токена), и превышение приводит к ошибкам. Понимание количества токенов необходимо для эффективного проектирования промптов.
Лимиты токенов основных моделей AI
GPT-4 (8K): 8192 токена, GPT-4 (32K): 32 768 токенов, GPT-4 Turbo: 128 000 токенов, GPT-3.5 Turbo: 16 385 токенов, Claude 3: 200 000 токенов, Gemini Pro: 32 768 токенов, Gemini Ultra: 100 000 токенов (планируется).
Сравнение цен основных моделей AI
GPT-4: вход $0.03/1K, выход $0.06/1K, GPT-4 Turbo: вход $0.01/1K, выход $0.03/1K, GPT-3.5 Turbo: вход $0.0005/1K, выход $0.0015/1K, Claude 3 Opus: вход $0.015/1K, выход $0.075/1K, Claude 3 Sonnet: вход $0.003/1K, выход $0.015/1K, Gemini Pro: доступен бесплатный уровень (см. официальную документацию).
Как работает токенизация
Модели AI разделяют текст на токены с использованием алгоритмов, таких как BPE (Byte Pair Encoding) или WordPiece. Распространённые слова становятся 1 токеном; редкие слова разделяются на несколько токенов. Эмодзи и специальные символы могут быть несколькими токенами на символ.
Входные токены против выходных токенов
API AI взимают разную плату за ввод (промпты) и вывод (сгенерированный текст). Выходные токены обычно дороже (например, вывод GPT-4 стоит в 2 раза дороже ввода). Для оптимизации затрат ограничьте выходные токены с помощью параметра max_tokens.
Точность этого инструмента
Этот инструмент имитирует официальные токенизаторы для каждой модели, но не гарантирует идеальную точность. Для точного подсчёта токенов используйте официальные инструменты (tiktoken от OpenAI, Claude Tokenizer от Anthropic и др.). Обеспечивает достаточную точность для оценочных целей.