AIトークンカウンター — 無料オンラインツール
テキストを貼り付けるだけで、GPT-5.3、Claude Opus 4.6、Gemini 2.5など20以上のAIモデルのトークン数を即座に確認。コンテキストウィンドウの使用量を比較し、APIコストを見積もれます。APIキー不要。
上にテキストを貼り付けてトークンをカウント
英語、コード、中国語、日本語、韓国語、および混合コンテンツに対応
AIトークンとは?
トークンは、大規模言語モデル(LLM)が処理する基本的な構成要素です。人間が単語単位で読むのとは異なり、AIモデルはByte Pair Encoding(BPE)トークナイゼーションによって生成されるサブワード単位であるトークンで動作します。英語では、1トークンは約4文字または0.75単語に相当します。「the」「is」「a」のような一般的な短い単語はそれぞれ1トークンですが、「tokenization」のような長い単語は2〜3トークンに分割される場合があります。コードは散文とは異なるトークン化が行われ、特殊文字、括弧、演算子はそれぞれトークンを消費します。
トークン数を理解することは、AI APIを使って開発するすべての開発者にとって不可欠です。システムプロンプトの作成、RAGパイプラインの構築、ドキュメントの分析など、事前にトークン数を把握することで、予期しないコストやコンテキストウィンドウのオーバーフローエラーを防ぐことができます。
開発者にとってトークン数が重要な理由
- コンテキストウィンドウの制限:すべてのAIモデルには、1回のリクエストで処理できるトークン数(プロンプト+応答の合計)にハードリミットがあります。GPT-5.3は100万トークン以上、Claude Opus 4.6は200K、Gemini 2.5 Proは100万トークン以上を処理できます。制限を超えるとエラーやサイレントな切り捨てが発生します。
- APIコスト管理:主要なAIプロバイダーはすべて、入力(プロンプト)とモデルの出力(応答)の両方のトークンに対して課金します。プロンプトが2倍長くなると、処理コストも2倍になります。APIを呼び出す前にトークン数を把握することで、請求額の急増を防げます。
- 応答品質:コンテキスト制限に近い状態で動作するモデルは、大きな入力全体にわたって一貫性を維持するのに苦労し、品質の低い出力を生成する傾向があります。プロンプトをコンテキストウィンドウ内に十分収めることで、一般的に結果が改善されます。
- レイテンシの最適化:トークン数が多いほど、最初のトークンまでのレイテンシが遅くなります。リアルタイムアプリケーションやストリーミングのユースケースでは、プロンプトのトークン数を最小限に抑えることが、最初のトークンまでの時間を直接短縮します。
AIモデルのコンテキストウィンドウ比較(2026年)
- GPT-5.3(OpenAI):1,047,576トークン — OpenAIの最も高度なモデル、優れた推論とコード生成能力
- GPT-4.1 / 4.1 mini / 4.1 nano(OpenAI):1,047,576トークン — コードベース全体、長文ドキュメント、複雑なマルチターン会話に対応する大規模コンテキストウィンドウ
- GPT-4o / 4o mini(OpenAI):128,000トークン — 前世代、依然として広く使用
- o3 / o4-mini(OpenAI):200,000トークン — 数学、コード、複雑なロジックに最適化された推論モデル
- Claude Opus 4.6(Anthropic):200,000トークン — 複雑な分析とエージェントコーディングに最も優れたAnthropicのモデル
- Claude Sonnet 4(Anthropic):200,000トークン — 速度、コスト、知能の最適なバランス
- Claude Haiku 3.5(Anthropic):200,000トークン — 高速かつ手頃な価格で大きなコンテキストに対応
- Gemini 2.5 Pro / Flash(Google):1,048,576トークン — コードベース全体、書籍、動画に対応する100万トークン以上
- Gemini 2.0 Flash(Google):1,000,000トークン — 前世代、マルチモーダル対応
- Llama 4 Maverick(Meta):1,048,576トークン — 100万トークン以上のコンテキストを持つオープンソース、セルフホスト可能
- DeepSeek V3 / R1(DeepSeek):128,000トークン — 非常にコスト効率の高いフロンティアモデル
- Grok 3 / 3 mini(xAI):131,072トークン — 競争力のある価格設定で強力な推論能力
トークン使用量とAPIコストを削減するヒント
- シンプルなタスクには小さなモデルを使用:GPT-4o miniはGPT-4oより94%安価で、単純なタスクでは同等の性能を発揮します
- システムプロンプトを圧縮:システムプロンプトは会話のすべてのリクエストで送信されます。節約したトークンはすべてのターンで掛け算されます
- プロンプトキャッシュを活用:AnthropicとOpenAIはプレフィックスキャッシュを提供しており、繰り返されるプロンプトプレフィックスは通常料金の約10%で課金されます
- 大きなドキュメントをチャンク分割:ドキュメント全体を送信する代わりに、ベクトル検索やキーワードフィルタリングで関連セクションを先に抽出します
- コードコメントを削除:コメントはほとんどのAIタスクにおいて意味的な価値を追加せずにトークンを増やします
- XMLよりJSONを優先:構造化データのペイロードにおいて、JSONはXMLよりも大幅にトークン効率が高いです
AIトークンカウントに関するよくある質問
AIの言語モデルにおけるトークンとは何ですか?
トークンとは、AIモデルが処理するテキストの基本単位です。トークンはByte Pair Encoding(BPE)によって生成され、テキストを頻出する文字列に分割します。英語では、1トークンは約4文字または0.75単語に相当します。「developer」という単語は「develop」+「er」(2トークン)にトークン化される可能性がありますが、「the」は常に1トークンです。数字、句読点、空白もトークンを消費します。
このAIトークンカウンターの精度はどのくらいですか?
このツールは標準的なOpenAI tiktokenの近似値を使用しています:英語およびラテン文字テキストでは4文字につき1トークン、CJK(中国語、日本語、韓国語)文字では約1.5トークンです。結果は通常、公式トークナイザー出力の5〜15%以内の精度です。本番システムでの正確なカウントには、tiktoken Pythonライブラリまたは OpenAI Tokenizer Playgroundをご利用ください。
AIモデルによってトークンのカウント方法は異なりますか?
はい — GPTモデルはOpenAIのtiktokenを使用し、ClaudeはAnthropicのカスタムBPEトークナイザーを使用し、GeminiはGoogleのSentencePieceを使用します。同じ英語テキストに対して、すべてのトークンカウントは互いに約10%の範囲内に収まります。このツールはすべてのモデルに単一の近似式を適用しており、予算編成やコンテキストウィンドウの計画には十分な精度です。
入力トークンと出力トークンの違いは何ですか?
入力トークン(プロンプトトークン)は、モデルに送信するもの(指示、コンテキスト、データ)です。出力トークン(完了トークン)は、モデルの応答です。ほとんどのプロバイダーは、入力トークンよりも出力トークンに3〜5倍の料金を請求します。このツールは入力コストのみを見積もります。総コストについては、選択したモデルの出力レートに予想される出力の長さ(トークン単位)を掛けてください。
関連する開発者ツール
- .ENVファイルインスペクター&シークレットスキャナー — .envファイルの検証と公開されたシークレットの検出
- JWTデコーダー&インスペクター — JSON Web Tokenを即座にデコード
- CORSエラーデバッガー — Express、Nginx、Apache用の修正コードを取得
- すべての無料開発者ツールを見る