AIがブログを書くという件は、結局エンジニアリングにする必要がある(2)
トークンが十分にある場合、最も手っ取り早い方法は非常に粗暴ですが、過去の記事をそのままモデルに投入し、自分で学ばせることです。
問題は、この方法はたまに1記事書くのには適していますが、繰り返し書くのには適さないということです。もしブログ執筆を長期的なワークフローとして真剣に取り組むのであれば、「生データ(歴史的な文章)」というアプローチは、すぐに「高コストで散漫」になってしまいます。
トークンが十分にある場合、最も手っ取り早い方法は非常に粗暴ですが、過去の記事をそのままモデルに投入し、自分で学ばせることです。
問題は、この方法はたまに1記事書くのには適していますが、繰り返し書くのには適さないということです。もしブログ執筆を長期的なワークフローとして真剣に取り組むのであれば、「生データ(歴史的な文章)」というアプローチは、すぐに「高コストで散漫」になってしまいます。
昨年、多くの AI に関する記事を書きました。あの頃の最も手間のかかるプロセスは、まず自分でアウトラインや問題リストを整理し、大規模言語モデルに本文を出力させてもらい、その後その内容をローカルの md ドキュメントにコピー&ペーストし、フロントマター、タグ、カテゴリ、タイトルなどを補完してから公開するというものでした。
このプロセスが使えないわけではありませんが、非常に面倒です。本当に時間がかかるのは本文ではなく、本文の外側の繰り返しの作業です。特に最近 Codex を使いすぎてからは、その不自然さがより強く感じられます。それはリポジトリを読み込めるし、ファイルを編集でき、資料を補完できるだけでなく、記事を直接ディレクトリに書き込むこともできます。もし私がまだ手動でコピー&ペーストを繰り返していると、まるで人間がツールの足を縛っているような気分になります。
今年の春節、国内のいくつかのAI企業が資金を投じているのを見て、私の第一印象は賑やかさではなく、「見覚えがある」というものでした。
テンセントの元宝は2月1日に10億人民元の現金红包(お年玉)を配り、百度文心は1月26日から3月中旬まで継続して5億人民元の红包を出し、アリババの千問は2月6日には直接30億人民元の「ご馳走計画」を展開し、豆包は春節の晩番組とAIのインタラクションを利用して参入してきました。私の判断は非常に単純で、これは前時代のインターネットが残した慣性的な動きに過ぎません。まずは人々をアプリに引き込み、利用頻度を作ることが目的なのであり、それ以降は後回しにできると考えています。
この数日、AIプログラミングについて見てきましたが、さっきまでみんながMCPの話をしていて、次の瞬間にはまたSkillの話をしています。この言葉を初めて目にする人は、本能的にこれをまた新しいプロトコルか、あるいは高度なプロンプトだと捉えがちです。
私の判断は非常にシンプルで、SkillはMCPの座を奪いに来たものではなく、むしろエージェントに職種マニュアルのようなものを提供している感じです。MCPが解決するのは「エージェントが外部世界と接続できるか」という点であり、Skillが解決するのは「接続した後、どのような手順で確実にタスクを遂行するか」という点です。これらは代替関係ではなく、むしろ前後関係に近いです。
端的に言えば、MCPはエージェントに手足を与え、Skillはエージェントが勝手に動かないようにするためのものです。
最近、いくつかの端的な作業を MiniMax やローカルモデルに移行させているが、使うほど「最強モデル」という基準で物事を測るのは違うと感じるようになった。
私の判断は非常にシンプルだ。弱いモデルに無理に難しいタスクを割り当ててはいけない。「MiniMax」のようなモデルは、能力が劣っているのは事実だが、複雑なコーディング、長尺の推論、曖昧な要件の分解といった作業には確かに物足りない。しかし、データクレンジング、ドキュメント作成、提案資料の検索といったタスクであれば、これらは十分にこなせる。同じロジックで、ローカルの12Bクラスのモデルも同様だ。翻訳、フォーマットの書き直し、バッチ処理でのクレンジングなど、むしろそちらが本来適している場所なのだ。
最近、ブログ内の過去2年間にわたるAI関連の記事を遡って読み返したところ、内容は当初の「あるモデルが使えるかどうかの単純な体験談」という段階から進化し、より明確な一本の筋道を描いていることに気づきました。それは、**「AIがどのようにして私の開発ワークフローに真に入り込み、どのような効率性、コスト、そして新たな制約をもたらしたか」**という点です。
3月を通して、私は様々な大規模言語モデル(LLM)APIのトランジットポイント間を行き来して試していました。
安さについては、確かに安いものでした。月にあまりお金をかけずに、ChatGPT、Claude、Geminiといった海外のモデルをすべて触ることができ、表面上は非常にコストパフォーマンスの高い解決策を見つけたように思えました。しかし、実際に使ってみるうちに、この道筋が最初から「品質、安定性、費用対効果」という不可能な三角形から逃れられないと感じるようになりました。これら三つが同時に成立するのは難しいのです。
先週末には、この件はほぼ白日の下に晒されました。2026年3月28日から2026年3月29日までの二日間で、ChatGPT関連のチャネルの風控(リスク管理)が明らかに厳しくなり、Claudeも同様でした。以前はなんとか使えていた低価格なトランジットサービスも突然不安定になったり、完全に機能しなくなったりしました。私にとっては、これは低価格APIトランジットモデルの段階的な終焉を告げるものとなりました。
最近、コミュニティでの議論を見てみると、皆さんの「成長」の定義が根本的にシフトしているように見える。
以前はインターネットについて語るときは、「一斤を四斤に変換する」という考え方が一般的だった——数行のコードを書いたり、いくつかのクラウドサーバーをレンタルしたりして、優れたインタラクションと運営によって数億人のユーザーを獲得することができた。しかし、2026年の今日において、この「低資本」の幻想は、大規模言語モデルによって完全に打ち砕かれている。