<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>コスト観察 on 向叔の手帳</title>
        <link>https://ttf248.life/ja/tags/%E3%82%B3%E3%82%B9%E3%83%88%E8%A6%B3%E5%AF%9F/</link>
        <description>Recent content in コスト観察 on 向叔の手帳</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Tue, 28 Apr 2026 02:53:51 +0800</lastBuildDate><atom:link href="https://ttf248.life/ja/tags/%E3%82%B3%E3%82%B9%E3%83%88%E8%A6%B3%E5%AF%9F/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>トークンが少ないのに、なぜGPT-5.5はCodexでかえって高くなったのですか？</title>
        <link>https://ttf248.life/ja/p/gpt-5-5-cost-in-codex/</link>
        <pubDate>Mon, 27 Apr 2026 23:16:33 +0800</pubDate>
        
        <guid>https://ttf248.life/ja/p/gpt-5-5-cost-in-codex/</guid>
        <description>&lt;p&gt;呆然とした。&lt;/p&gt;
&lt;p&gt;ChatGPTの公式側では、トークンや費用を直接確認するのが難しいため、サードパーティのプラットフォームを利用して、CodexでGPT-5.4とGPT-5.5を用いて同種のタスクを一度実行しました。思考モードはすべて&lt;code&gt;high&lt;/code&gt;に設定しています。結果は非常に明快でした。簡単な問題については比較的穏やかで、GPT-5.5はGPT-5.4よりおよそ30%高価です。しかし、複雑なタスクになると、費用が直接2.6倍に跳ね上がり、リクエスト回数とトークン消費量も共に増加&lt;/p&gt;
&lt;p&gt;私自身の判断も非常にストレートに申し上げますが、これは単に「5.5のほうが単価が高い」という一言で片付けられる問題ではありません。簡単なタスクの場合、費用は主に単価が要因となります。しかし、複雑なタスクの場合、実際にかかっているコストは、その呼び出しチェーン（処理の一連の流れ）全体です。&lt;/p&gt;
&lt;p&gt;とはいえ、逆から見ると、5.5はあなたの手戻り（作り直し）のコストを肩代わりしてくれている側面があります。モデル側がより深く考え、より多くの工程を経て実行し、より多くチェックしてくれるため、最終的に請求されるのは単一の回答に対する費用ではなく、一連のアクション全体に基づいた費用になります。結果として、人間側も何度もやり取りをして手間取る回数が減ります。&lt;/p&gt;
&lt;h2 id=&#34;単価の明細書&#34;&gt;単価の明細書
&lt;/h2&gt;&lt;p&gt;まず表面的な帳簿を見ましょう。&lt;/p&gt;
&lt;p&gt;このように考えると、簡単な問題だけでなぜ30%しかコストが増えないのかは、実はそれほど難しくありません。なぜなら、この種のタスクでは、5.5の方が確かに収束しやすく、回り道が少なく、消費するトークンが少ないため、値上げの一部を相殺しているからです。&lt;/p&gt;
&lt;p&gt;OpenAI自身もリリースノートで、5.5が複雑なコーディングや実際の業務タスクにおいて能力がより強力であり、特定のシナリオではトークンの利用効率が高いと強調しています。この主張は私のテスト結果と矛盾するものではありません。これは単にモデル自体が「より高い性能を発揮する」ことを示しているだけであり、お客様の総費用が必ずしも安くなるわけではありません。&lt;/p&gt;
&lt;p&gt;正直に言うと、食欲は少し落ちたけど、野菜の値段が2倍になったんだから。合計金額が上がらないなんてありえないよ。&lt;/p&gt;
&lt;h2 id=&#34;複雑なタスクの裏側&#34;&gt;複雑なタスクの裏側
&lt;/h2&gt;&lt;p&gt;私にとって最も「意難平」な（心を揺さぶられた）のは、簡単な問題でわずか30%という点ではなく、複雑なタスクがなんと2.6倍にまで引き上げられたことです。&lt;/p&gt;
&lt;p&gt;つまり、複雑なタスクの費用体系が変わってきたということです。&lt;/p&gt;
&lt;p&gt;以前は、モデルを見る際、「1M トークンあたりいくらか」に注目するのが主でした。しかし今は、別の視点——「このタスクを完了するために、総じてどれだけの回数のアクションが開始されるか」——を見る必要があります。&lt;/p&gt;
&lt;p&gt;モデルがより能動的で執拗になれば、当然ながら結果はより良くなる可能性もありますが、同時にリクエストの回数、コンテキスト参照（再読み込み）、そして出力長さを一緒に引き上げてしまうリスクも高まります。&lt;/p&gt;
&lt;p&gt;最終的に目にするのは、単価の上昇、トークンの増加、そしてリクエスト回数の増加という、3つの費用が重なり合った請求書です。&lt;/p&gt;
&lt;p&gt;これが、今回（のテスト）で非常に異様な現象が起こった理由です。簡単な問題では、5.5は単に「少しコストが高い」程度に見えるだけで終わります。しかし、複雑なタスクになると、「少し高い」というレベルではなくなり、まるごと別のコストカーブを敷いてしまうのです。&lt;/p&gt;
&lt;h2 id=&#34;高価でも必ずしも割に合わないわけではない&#34;&gt;高価でも、必ずしも割に合わないわけではない
&lt;/h2&gt;&lt;p&gt;ここにはもう一つ費用がかかっています。プラットフォームの請求書だけでは実際に見えないのですが、それが「手直し（やり直し）にかかるコスト」なんです。&lt;/p&gt;
&lt;p&gt;もし 5.4 の方が安くても、プロンプトの追加を2ラウンドしたり、手動での修正・補正作業を何回も行ったり、構造的な再調整を行う時間自体が本質的にコストであり、単にトークン請求書に直接計上されていないだけです。5.5 はより高価ですが、ある意味で「人間が行うカバー（リカバリー）作業」の一部を、モデル自身の推論プロセスとチェック機能の中に事前にパッケージ化して売っているということなのです。&lt;/p&gt;
&lt;p&gt;したがって、複雑なタスクにおける5.5の費用高は、「プラットフォームが余分に料金を徴収した」とだけ理解すべきではありません。より正確に言えば、それはこれまで人間に分散していた修正作業、再確認、補足説明、そしてさらなる検証といったプロセスを、単一かつ高いモデル費用として集約したもののようなものです。もしあなたが元々「一度で完成させる精度（一次成稿率）」を特に重視している場合や、タスクのコンテキストが長く往復する際のコストが高い場合は、この費用が無駄ではない可能性もあります。&lt;/p&gt;
&lt;p&gt;もちろん、ここには限界点もあります。手直し（リワーク）のコストが本当に下がったかどうかは、タスクの種類によります。もし単に簡単な質問をするだけの場合や、本来から短い期間で終わる作業であれば、この 5.5 の追加機能は必ずしも活用できないかもしれません。価格は上がっているのに利益がそれに追いつかない場合、その時点では負担（コスト）に感じやすくなるでしょう。&lt;/p&gt;
&lt;h2 id=&#34;どう選べばいいですか&#34;&gt;どう選べばいいですか？
&lt;/h2&gt;&lt;p&gt;さらに、非常に現実的な疑問として、「なぜ多くの人がサードパーティのプラットフォームに見積もり（または評価）を依頼するのか」という点があります。&lt;/p&gt;
&lt;p&gt;OpenAIのヘルプセンターには明確に書かれていますが、&lt;code&gt;chatgpt.com&lt;/code&gt; と &lt;code&gt;platform.openai.com&lt;/code&gt; は独立した2つのプラットフォームであり、請求書や過去の費用も別々に確認できます。API側には「Usage Dashboard」があり、コスト（cost）と使用量（usage）をエクスポートすることも可能です。しかしながら、普段ChatGPTやCodexなどの領域で主に利用する場合、APIユーザーが慣れているような、モデルごとに分割されたトークンコストという視点はありません。この結論は、私が公式ヘルプドキュメントに基づいて推測したものであり、そのため、多くの場合は自分でテストするか、サードパーティのプラットフォームを利用して確認するしかありません。&lt;/p&gt;
&lt;p&gt;そのため、現在、私（は）GPT-5.5に対して明確なスタンスを持っています。&lt;/p&gt;
&lt;p&gt;使えないわけではないのですが、「モデルがより強力だ」というだけで、必ずしも「それもまたより合理的（または得策）である」と決めつけてしまうことはできないということです。&lt;/p&gt;
&lt;p&gt;簡単な問題、リスクの低いタスクには、5.4のような安価なモデルが、日常的なベースラインとして適している可能性が高いでしょう。複雑なタスクや高価値のタスクについては、5.5の導入も検討できますが、前提として、より高い自律性（自主性）と低く抑えられた手直しコストに対して、あなたが本当に対価を払う意思があることが必要です。そうでない場合、結果は多少良くなっても、まずコストが制御不能になり、最終的には再現やスケールアップすることさえ躊躇してしまうという状況になりがちです。&lt;/p&gt;
&lt;p&gt;正直なところ、これが今回のテストで最も役立つ結論です。モデルのアップグレードは単なる性能向上ではなく、多くの場合、課金（ビリング）ロジックのアップグレードのようなものです。以前は回答の質を選んでいたものが、今や自分自身が支払い可能な推論パスを同時に選ばなければならなくなってきました。&lt;/p&gt;
&lt;p&gt;プラットフォームの視点からさらに一歩深く考えると、この価格設定は、ユーザーがAIプログラミングに対して持つ「価格のアンカーポイント」を書き換えているようにも見えます。より高度なエージェント機能は、「チャットを一度するのにいくらか」という感覚で売られるのではなく、「どれだけの再作業（工数）を節約できるか」という価値で売られるのです。OpenAIはすでに2026年4月に大型資金調達を完了し、引き続き企業構造の調整と商業化規模の拡大を進めています。「今年中にIPOを控えている」という点については、本日2026年4月27日現在、OpenAI自身が公式にそう断言した記録はありません。これはむしろ外部メディアやアナリストによる推測が主です。したがって、この部分を記述する場合、「OpenAIはIPOのために意図的に価格を上げている」という書き方よりも、「同社はより高度なエージェント能力を活用し、徐々にユーザーに高い価格帯を受け入れさせるよう教育している」といった方が、より確実で安全な表現となるでしょう。&lt;/p&gt;
&lt;h2 id=&#34;参考資料&#34;&gt;参考資料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/ms-BN/index/introducing-gpt-5-5/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAIがGPT-5.5を発表（2026年4月23日）&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/api/pricing/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAI：API価格設定&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://help.openai.com/en/articles/9039756&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAIヘルプ：ChatGPTとPlatformの請求設定の違い&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://help.openai.com/en/articles/10478918-api-usage-dashboard&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAIヘルプ：API利用状況ダッシュボード&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/our-structure/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAI：当社の組織構造&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/index/accelerating-the-next-phase-ai/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAIが次期AIフェーズの加速のため1220億ドルを調達&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://apnews.com/article/2a44fa94da6913074f97f916332b33f6&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;APニュース：マイクロソフトがAI提携関係を緩めるための新たな一環としてOpenAIへの収益分配を削減&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;執筆者注記&#34;&gt;執筆者注記
&lt;/h2&gt;&lt;h3 id=&#34;元のプロンプト&#34;&gt;元のプロンプト
&lt;/h3&gt;&lt;blockquote&gt;
&lt;p&gt;ChatGPTの公式プラットフォームでは、トークン数と費用を直接統計するのが難しい。サードパーティのプラットフォームを使ってテストを行ったところ、Codex内でChatGPTの異なるモデルを呼び出し、思考モードを「high」に設定して簡単な問題をいくつか試した。5.4と比較すると、5.5は約30%の増加傾向にあるが、トークン数は減ったものの、トークンの単価が上がっていることがわかった。複雑なタスクでは2.6倍に増加し、APIの呼び出し回数が増え、トークン消費量も増えたため、さらにトークン価格の上昇が加わり、総費用が2.6倍になっている。5.5は主に再作業にかかるコストを下げていると言える。OpenAIも年内にIPOを目指しているため、この機会を利用してユーザーに高い価格帯への適応を促しているようだ。&lt;/p&gt;&lt;/blockquote&gt;
&lt;h3 id=&#34;執筆コンセプトの概要&#34;&gt;執筆コンセプトの概要
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;記事のメインテーマを「複雑なタスクのコスト構造の変化」に絞り、単なる一般的なモデル評価にならないようにすること。&lt;/li&gt;
&lt;li&gt;序盤では、公式の価格設定を用いて、簡単な問題であっても「トークンは少ないが総額が高くなる」理由を説明する。&lt;/li&gt;
&lt;li&gt;中盤では、複雑なタスクが単価、トークン数、リクエスト回数の三つの要因すべてで同時に上昇し、結果として元の2.6倍になっていることを詳述する。&lt;/li&gt;
&lt;li&gt;「修正・再作業（イテレーション）のコスト」という視点を独立した段落で補足し、5.5を単に価格が上がっただけで付加価値を生み出していないかのように見せないようにする。&lt;/li&gt;
&lt;li&gt;公式プラットフォームとAPIプラットフォームの請求書が分離しているという事実を追記し、なぜこのようなコスト観察は独自に測定する必要があるのかを説明する。&lt;/li&gt;
&lt;li&gt;IPO関連の内容は、OpenAIが公式に確認した事実としてではなく、市場的な判断として格&lt;/li&gt;
&lt;/ul&gt;</description>
        </item>
        
    </channel>
</rss>
