トークンが少ないのに、なぜGPT-5.5はCodexでかえって高くなったのですか?
呆然とした。
ChatGPTの公式側では、トークンや費用を直接確認するのが難しいため、サードパーティのプラットフォームを利用して、CodexでGPT-5.4とGPT-5.5を用いて同種のタスクを一度実行しました。思考モードはすべてhighに設定しています。結果は非常に明快でした。簡単な問題については比較的穏やかで、GPT-5.5はGPT-5.4よりおよそ30%高価です。しかし、複雑なタスクになると、費用が直接2.6倍に跳ね上がり、リクエスト回数とトークン消費量も共に増加
私自身の判断も非常にストレートに申し上げますが、これは単に「5.5のほうが単価が高い」という一言で片付けられる問題ではありません。簡単なタスクの場合、費用は主に単価が要因となります。しかし、複雑なタスクの場合、実際にかかっているコストは、その呼び出しチェーン(処理の一連の流れ)全体です。
とはいえ、逆から見ると、5.5はあなたの手戻り(作り直し)のコストを肩代わりしてくれている側面があります。モデル側がより深く考え、より多くの工程を経て実行し、より多くチェックしてくれるため、最終的に請求されるのは単一の回答に対する費用ではなく、一連のアクション全体に基づいた費用になります。結果として、人間側も何度もやり取りをして手間取る回数が減ります。