<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Gpt-5.4 on 向叔の手帳</title>
        <link>https://ttf248.life/ja/tags/gpt-5.4/</link>
        <description>Recent content in Gpt-5.4 on 向叔の手帳</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Thu, 09 Apr 2026 15:45:31 +0800</lastBuildDate><atom:link href="https://ttf248.life/ja/tags/gpt-5.4/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Codex はデフォルトで medium ですが、後で high に切り替えました。</title>
        <link>https://ttf248.life/ja/p/codex-default-medium-vs-high/</link>
        <pubDate>Wed, 08 Apr 2026 22:57:47 +0800</pubDate>
        
        <guid>https://ttf248.life/ja/p/codex-default-medium-vs-high/</guid>
        <description>&lt;p&gt;Codex を使っている期間、ずっと気になっている問題があります。デフォルトの思考レベルが &lt;code&gt;medium&lt;/code&gt; なのですが、ネットで話題になっている &lt;code&gt;GPT-5.4&lt;/code&gt; のような話を聞くと、皆とてもすごい口ぶりをします。実際に自分で試してみると、&lt;code&gt;medium&lt;/code&gt;、&lt;code&gt;high&lt;/code&gt;、&lt;code&gt;xhigh&lt;/code&gt; は一体どれくらい違うのか、公式からも特に分かりやすい表が出ていません。&lt;/p&gt;
&lt;p&gt;私なりの結論はかなり明確になりました。普段のコーディングでは、私は迷わず &lt;code&gt;high&lt;/code&gt; を使う方がいいと思っています。&lt;code&gt;medium&lt;/code&gt; が使えないわけではありません。ちょっとした作業や、細かい修正、方向性を試す程度なら問題ありませんが、複数のファイルを変更したり、要求に曖昧さがあったりして、コードを見ながら判断を求められるような状況だと、&lt;code&gt;medium&lt;/code&gt; では計算能力の配分を間違えやすい気がします。逆に &lt;code&gt;xhigh&lt;/code&gt; はあまり頻繁には使いません。行き詰まった大きなタスクのために取っておくのが良いと思います。&lt;/p&gt;
&lt;h2 id=&#34;まずmediumを明確にしておく&#34;&gt;まず「medium」を明確にしておく
&lt;/h2&gt;&lt;p&gt;この件で最も混乱しやすいのは、「medium」が単一の意味ではない点です。
2026年4月8日現在、OpenAIの公開ドキュメントによると、&lt;code&gt;GPT-5.4&lt;/code&gt; の &lt;code&gt;reasoning.effort&lt;/code&gt; は &lt;code&gt;none&lt;/code&gt;、&lt;code&gt;low&lt;/code&gt;、&lt;code&gt;medium&lt;/code&gt;、&lt;code&gt;high&lt;/code&gt;、&lt;code&gt;xhigh&lt;/code&gt; をサポートしており、デフォルトは依然として &lt;code&gt;none&lt;/code&gt; です。しかし、同じドキュメント内には &lt;code&gt;verbosity&lt;/code&gt; もあり、これには &lt;code&gt;low&lt;/code&gt;、&lt;code&gt;medium&lt;/code&gt;、&lt;code&gt;high&lt;/code&gt; が含まれており、しかも &lt;code&gt;GPT-5.4&lt;/code&gt; の &lt;code&gt;verbosity&lt;/code&gt; のデフォルト値は &lt;code&gt;medium&lt;/code&gt; です。
そのため、「デフォルトは medium」という記述をオンラインで見ても、すぐに「思考レベル」に当てはめるのはやめてください。多くの場合、言及されているものは全く別のことを指しています。
もしあなたが Codex で直接利用している状況で、デフォルトが &lt;code&gt;medium&lt;/code&gt; と表示された場合、私はそれをモデルドキュメント上の低レイヤーなデフォルト値として理解するよりも、プロダクト層から提供されるプリセットとして解釈する方が適切だと考えます。この区別をしないと、後続の議論で常に矛盾が生じてしまいます。&lt;/p&gt;
&lt;h2 id=&#34;公式は実際には差を明確に説明していない&#34;&gt;公式は実際には差を明確に説明していない
&lt;/h2&gt;&lt;p&gt;公式の説明を再確認します。
公開ドキュメントから現在確認できることは以下の点です：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;gpt-5.4&lt;/code&gt; が、公式推奨の汎用コーディングデフォルトモデルであること。&lt;/li&gt;
&lt;li&gt;コード生成ガイドラインにおいて、公式が &lt;code&gt;gpt-5.4&lt;/code&gt; に提供する例では、直接的に &lt;code&gt;reasoning: high&lt;/code&gt; が設定されていること。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.3-codex&lt;/code&gt; のような Codex 特化モデルは、公開ページで明確に &lt;code&gt;low&lt;/code&gt;、&lt;code&gt;medium&lt;/code&gt;、&lt;code&gt;high&lt;/code&gt;、&lt;code&gt;xhigh&lt;/code&gt; をサポートしていること。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.4-pro&lt;/code&gt; は別のラインであり、単に通常の &lt;code&gt;gpt-5.4&lt;/code&gt; の設定を上げるだけではなく、「より多くの計算能力を使ってより長く考える」ための独立したモデルであること。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;しかし、公式は非常に実用的な表を提供してくれません。例えば：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;medium&lt;/code&gt; が &lt;code&gt;high&lt;/code&gt; に比べて具体的にどの程度の成功率の差があるのか&lt;/li&gt;
&lt;li&gt;&lt;code&gt;high&lt;/code&gt; が &lt;code&gt;xhigh&lt;/code&gt; に比べてどれだけ時間とトークンを余分に消費するのか&lt;/li&gt;
&lt;li&gt;コーディングのシナリオにおいて、どのタスクが直接 &lt;code&gt;xhigh&lt;/code&gt; を使う価値があるのか&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;つまり、公式はノブ（ダイヤル）は渡してくれたものの、経験曲線を描き上げてくれるわけではないのです。&lt;/p&gt;
&lt;h2 id=&#34;本当に役立つのはランキングのどの段階を見るかによる&#34;&gt;本当に役立つのは、ランキングのどの段階を見るかによる
&lt;/h2&gt;&lt;p&gt;ひらめきが訪れ、私はArenaのコードランキングを覗いてみたところ、状況がはっきりしました。
&lt;code&gt;arena.ai&lt;/code&gt; のコードランキングでは、レベル分けされて記載されています。ページ更新日は &lt;code&gt;2026-04-01&lt;/code&gt; であり、この記事を書いている時点でのデータは以下の通りです：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;gpt-5.4-high (codex-harness)&lt;/code&gt; は &lt;strong&gt;6位&lt;/strong&gt;、スコア &lt;strong&gt;1457&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.4-medium (codex-harness)&lt;/code&gt; は &lt;strong&gt;16位&lt;/strong&gt;、スコア &lt;strong&gt;1427&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.3-codex (codex-harness)&lt;/code&gt; は &lt;strong&gt;18位&lt;/strong&gt;、スコア &lt;strong&gt;1407&lt;/strong&gt;
これら数値を並べて見ると、意味は非常に明白です。
同じ &lt;code&gt;GPT-5.4&lt;/code&gt; において、&lt;code&gt;high&lt;/code&gt; と &lt;code&gt;medium&lt;/code&gt; の差は「ほんの少しの違い」ではなく、明確なレベル差を生んでいます。もしあなたが「GPT-5.4 はとても強力だ」という一文だけを見ていたとしても、情報が不十分です。なぜなら、ランキング自体が &lt;code&gt;high&lt;/code&gt; と &lt;code&gt;medium&lt;/code&gt; を別々の項目として提示しているからです。世間で言う「非常に強力」というのは、おそらく高い思考レベルで出た結果を指しており、&lt;code&gt;medium&lt;/code&gt; の代わりをしているわけではない可能性が高いのです。
もちろん、このランキングはあなたのプロジェクトにおける真理ではありません。これは agentic coding + harness のシナリオを測定したものであり、あなた自身のローカルリポジトリとは異なります。しかし、方向性は非常に明確です。コーディングという行為において、推論のレベル（档位）は単に速度を変えるだけでなく、結果そのものを変えてしまうのです。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;今どう選ぶか&#34;&gt;今、どう選ぶか
&lt;/h2&gt;&lt;p&gt;端的に言うと、今の私の使い方はとてもシンプルです。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;medium&lt;/code&gt; は以下のシーンのために取っておきます：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;小さなファイルの修正&lt;/li&gt;
&lt;li&gt;明らかなバグの修正&lt;/li&gt;
&lt;li&gt;まずモデルにドラフトを出してもらいたいとき&lt;/li&gt;
&lt;li&gt;スピードが求められ、長く待てないとき&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;code&gt;high&lt;/code&gt; は日常のデフォルトとして適しています：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;複数のファイルにまたがる変更&lt;/li&gt;
&lt;li&gt;要件に少し曖昧な部分があるとき&lt;/li&gt;
&lt;li&gt;コードを読んでから着手する必要があるとき&lt;/li&gt;
&lt;li&gt;単なるコード補完ではなく、判断が必要なとき&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;code&gt;xhigh&lt;/code&gt; は難関問題のために取っておきます：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;リスクの高いリファクタリング&lt;/li&gt;
&lt;li&gt;長い処理フローのデバッグ&lt;/li&gt;
&lt;li&gt;アーキテクチャの変更&lt;/li&gt;
&lt;li&gt;&lt;code&gt;high&lt;/code&gt; を2周しても問題を解決できなかった場合&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;ここで最も重要なのは、&lt;code&gt;xhigh&lt;/code&gt; がどれだけすごいかということではなく、&lt;strong&gt;&lt;code&gt;medium&lt;/code&gt; を「万能薬」として使ってしまわないこと&lt;/strong&gt;です。&lt;code&gt;medium&lt;/code&gt; の問題は弱さではなく、複雑なタスクにおいて「もう少しでいいや」という誤った感覚を与えやすい点にあります。その結果、最初の段階で時間を節約したつもりでも、後でより多くの手戻りが発生します。&lt;/p&gt;
&lt;h2 id=&#34;gpt-54-に戻るが結局どのレベルが強いのか&#34;&gt;GPT-5.4 に戻るが、結局どのレベルが強いのか
&lt;/h2&gt;&lt;p&gt;というわけで、再びあの問題に戻ります。「GPT-5.4 はとても強力だ」とネットで言われているが、具体的にどのレベルのことを指しているのだろうか？
私の判断では、グレードを明記していない「GPT-5.4 が強力」というのは、デフォルトで高い思考レベル（high）を想定するのがより信頼できると思います。少なくともコーディングのシナリオにおいては、それを単に &lt;code&gt;medium&lt;/code&gt; と理解するのは避けるべきです。もし相手が &lt;code&gt;gpt-5.4-pro&lt;/code&gt; のようなことを言っているなら、それは全く別の話であり、より重い計算能力を持つ専用バージョンです。
前述した &lt;a class=&#34;link&#34; href=&#34;https://ttf248.life/ja/p/command-line-ai-coding-interaction/&#34; &gt;コマンドラインベースのAIコーディングインタラクション&lt;/a&gt; では、主にインタラクション方法の変化について議論していました。今振り返ると、インタラクションが変わったことは一つの側面ですが、モデルが実際にどのレベルで動いているのかという点は、実は別の、より現実的な問題になってきています。
私としては非常に明確なスタンスを持っています。日常使いなら &lt;code&gt;high&lt;/code&gt; で十分であり、それでうまくいかない場合にのみ &lt;code&gt;xhigh&lt;/code&gt; を試すべきです。このようにすることで、速度、コスト、成功率のバランス点が最も適切だと考えます。&lt;/p&gt;
&lt;h2 id=&#34;参考資料&#34;&gt;参考資料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.openai.com/api/docs/guides/latest-model&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Using GPT-5.4 | OpenAI API&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.openai.com/api/docs/guides/code-generation&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Code generation | OpenAI API&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.openai.com/api/docs/models/gpt-5.4&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;GPT-5.4 Model | OpenAI API&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.openai.com/api/docs/models/gpt-5.4-pro&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;GPT-5.4 pro Model | OpenAI API&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.openai.com/api/docs/models/gpt-5.3-codex&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;GPT-5.3-Codex Model | OpenAI API&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://arena.ai/leaderboard/code&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Code AI Leaderboard - Best AI Models for Coding&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;作成上の注記&#34;&gt;作成上の注記
&lt;/h2&gt;&lt;h3 id=&#34;元のプロンプト&#34;&gt;元のプロンプト
&lt;/h3&gt;&lt;pre&gt;&lt;code class=&#34;language-text&#34;&gt;$blog-writer codex を使用している際に疑問点があります。デフォルトの思考レベルは medium ですが、残りの high や xhigh の能力差はどのくらいですか？日常的に使うべきなのはどれでしょうか？公式の説明も明確に見当たりませんし、ネット上では GPT-5.4 が非常に強力だという話や、また別のレベルの話を聞きます。ふと、大規模言語モデルのランキングを思い出し、https://arena.ai/leaderboard/code を確認しました。ここでは、各LLMの思考レベルが明確に示されていますね。GPT-5.4-high (codex-harness) が6位にいます。デフォルトで high を使うだけで十分な気がします。もしうまくいかないようでしたら、xhigh を試してみるのも良いかもしれません。コストと速度のバランスを取れると思います。
&lt;/code&gt;&lt;/pre&gt;
&lt;h3 id=&#34;ライティングの骨子要約&#34;&gt;ライティングの骨子（要約）
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;「日常的な使用では high を使い、xhigh でカバーする」ことを主要な判断軸とし、グレード別百科事典のような記述は避けた。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;reasoning&lt;/code&gt; と &lt;code&gt;verbosity&lt;/code&gt; を分けて説明し、公開ドキュメント内の2つの &lt;code&gt;medium&lt;/code&gt; を混同することを防いだ。&lt;/li&gt;
&lt;li&gt;公式資料は、サポートされるグレード、デフォルト値、コード生成の例を確認するために使用し、公式が提供していない能力差の表を勝手に作成することは避けた。&lt;/li&gt;
&lt;li&gt;Arena ランキングでは、&lt;code&gt;2026-04-01&lt;/code&gt; ページの順位とスコアを使用し、「high が medium より明らかに優れている」という点に事実上のアンカーポイント（根拠）を補強した。&lt;/li&gt;
&lt;li&gt;構成としては、まず「なぜ混乱するのか」から説明し、次に公式の見解の境界線を示し、最後に日常的な選び方で締めくくる流れとした。&lt;/li&gt;
&lt;/ul&gt;</description>
        </item>
        
    </channel>
</rss>
