<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Apache on 向叔の手帳</title>
        <link>https://ttf248.life/ja/tags/apache/</link>
        <description>Recent content in Apache on 向叔の手帳</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja</language>
        <lastBuildDate>Thu, 09 Apr 2026 15:45:31 +0800</lastBuildDate><atom:link href="https://ttf248.life/ja/tags/apache/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Googleが今回Gemma 4を公開した（1）</title>
        <link>https://ttf248.life/ja/p/gemma-4-series-models-and-license/</link>
        <pubDate>Wed, 08 Apr 2026 23:48:20 +0800</pubDate>
        
        <guid>https://ttf248.life/ja/p/gemma-4-series-models-and-license/</guid>
        <description>&lt;p&gt;初日に私がやりたかったことはとてもシンプルでした。&lt;code&gt;Gemma 3&lt;/code&gt; に対応するアップグレード版を見つけて、まずダウンロードして動かしてみることです。
しかし、全体をざっと見ていくと、少し戸惑いを覚えました。以前慣れていた &lt;code&gt;4B / 12B / 27B&lt;/code&gt; という命名規則がなくなり、代わりに &lt;code&gt;E4B&lt;/code&gt;、&lt;code&gt;26B A4B&lt;/code&gt;、&lt;code&gt;31B&lt;/code&gt; といったものが現れたのです。どう言えばいいか、今回Googleが真に変わったのは、単にモデルのサイズだけではなく、「この一連のモデルをどう理解すべきか」という部分まで変わってしまったからです。&lt;/p&gt;
&lt;p&gt;この記事群は3つの記事に分けて書きました。現在の記事では、リリース情報、モデル名、プロトコルを明確に説明します。次の記事では &lt;a class=&#34;link&#34; href=&#34;https://ttf248.life/ja/p/gemma-4-series-local-test-on-rtx-3060/&#34; &gt;Googleが今回Gemma 4を公開した（2）：RTX 3060 12GBでローカル実行してみた、真の現実的なのは26B A4B&lt;/a&gt; を書きます。そして最後の記事では &lt;a class=&#34;link&#34; href=&#34;https://ttf248.life/ja/p/gemma-4-series-vram-cliff-and-mac-unified-memory/&#34; &gt;Googleが今回Gemma 4を公開した（3）：VRAM不足でなぜ急落するのか、Macはなぜバックアップになり得るのに速くないのか&lt;/a&gt; で締めくくります。&lt;/p&gt;
&lt;h2 id=&#34;まず今回具体的に何がリリースされたのかを明確にしましょう&#34;&gt;まず、今回具体的に何がリリースされたのかを明確にしましょう
&lt;/h2&gt;&lt;p&gt;昨年の &lt;code&gt;Gemma 3&lt;/code&gt; は 2025年3月12日にリリースされ、今回の &lt;code&gt;Gemma 4&lt;/code&gt; は 2026年4月2日と、確かに約1年空いています。
しかし、今回は「27Bの次は何だろう」という考え方で探すのはやめましょう。公式が提示した主要な4つのサイズは、もはや単に総パラメータ数で区分けされているわけではありません。
| &lt;code&gt;E2B&lt;/code&gt; | Dense | 2.3B effective，5.1B 含 embeddings，128K context | デバイス側、超軽量ローカル |&lt;/p&gt;
&lt;h2 id=&#34;今回結局何を発行したのかを明確にする&#34;&gt;今回、結局何を発行したのかを明確にする
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;モデル名&lt;/th&gt;
          &lt;th&gt;構造&lt;/th&gt;
          &lt;th&gt;主要な数値&lt;/th&gt;
          &lt;th&gt;代表的なユースケース&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;E4B&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;Dense&lt;/td&gt;
          &lt;td&gt;有効パラメータ 4.5B、埋め込み込み含む 8B、コンテキスト長 128K&lt;/td&gt;
          &lt;td&gt;元の 4B の小型モデルをメインラインとして展開&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;今回到底发布了什么说清楚&#34;&gt;今回到底发布了什么说清楚
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;モデル名&lt;/th&gt;
          &lt;th&gt;構造&lt;/th&gt;
          &lt;th&gt;主要な数値&lt;/th&gt;
          &lt;th&gt;代表的なユースケース&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;26B A4B&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;MoE&lt;/td&gt;
          &lt;td&gt;合計 25.2B、アクティブ約 3.8B、コンテキスト 256K&lt;/td&gt;
          &lt;td&gt;コンシューマー向けGPU、ローカルデプロイメント、品質と速度の両立&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;まず今回具体的に何を出したのかを明確にする&#34;&gt;まず、今回具体的に何を出したのかを明確にする
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;モデル名&lt;/th&gt;
          &lt;th&gt;構造&lt;/th&gt;
          &lt;th&gt;主要な数値&lt;/th&gt;
          &lt;th&gt;代表的なユースケース&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;31B&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;Dense&lt;/td&gt;
          &lt;td&gt;30.7B dense、256K context&lt;/td&gt;
          &lt;td&gt;最高性能の追求、ランキングでの優位性、より安定した品質&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;今回結局何を出したのかを明確にする&#34;&gt;今回、結局何を出したのかを明確にする
&lt;/h2&gt;&lt;p&gt;表面だけを見ると、今回のネーミングはより混乱していると感じるかもしれません。しかし実際は混乱しているのではなく、Googleが意図的に3つの異なるアプローチに分割しているのです：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;小規模モデル・デバイス側向けに &lt;code&gt;E2B / E4B&lt;/code&gt; を提供&lt;/li&gt;
&lt;li&gt;ローカルプレイヤー路線として &lt;code&gt;26B A4B&lt;/code&gt; を提供&lt;/li&gt;
&lt;li&gt;品質と上限を重視した路線として &lt;code&gt;31B&lt;/code&gt; を提供
これが、多くの人が最初に「以前の馴染んだアップグレードパスが途切れた」と感じる理由です。アップグレード版を提供していないわけではなく、Googleはもはや総パラメータ数という単一の次元だけで製品を売りたいわけではないのです。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;eとaは今回装飾文字ではありません&#34;&gt;「E」と「A」は今回、装飾文字ではありません
&lt;/h2&gt;&lt;p&gt;このモデル名の中で、最も誤解を招きやすいのが &lt;code&gt;E4B&lt;/code&gt; と &lt;code&gt;A4B&lt;/code&gt; です。
&lt;code&gt;E2B&lt;/code&gt; や &lt;code&gt;E4B&lt;/code&gt; に含まれる &lt;code&gt;E&lt;/code&gt; は、公式では &lt;code&gt;effective parameters&lt;/code&gt;（実効パラメータ）を指します。これら2つのモデルは &lt;code&gt;Per-Layer Embeddings&lt;/code&gt; を使用しているため、総パラメータ数と真の有効パラメータ数が同じ基準ではありません。平たく言えば、Googleは「これは過去のような『単なる 4B の密なモデル』ではない」と注意喚起しています。
一方、&lt;code&gt;26B A4B&lt;/code&gt; に含まれる &lt;code&gt;A&lt;/code&gt; は &lt;code&gt;active parameters&lt;/code&gt;（アクティブパラメータ）を指します。総容量は &lt;code&gt;25.2B&lt;/code&gt; ですが、各トークンで実際に活性化するのは約 &lt;code&gt;3.8B&lt;/code&gt; です。これがMoE（Mixture of Experts）の鍵であり、モデル全体のサイズは大きいものの、実行時に実際に計算に参加する部分はかなり小さいということです。
そのため、この2つの名前はどちらも「4B」を含んでいますが、その意味合いは全く異なります。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;E4B&lt;/code&gt; は小規模モデルのメインラインです。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;26B A4B&lt;/code&gt; は大規模なMoEであり、ローカル推論時には「アクティブな規模が約 4B 程度」というイメージに近いです。
この命名規則は当初は確かに不自然ですが、過去のものよりも実際のデプロイ体験により近くなっています。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;以前-gemma-3-を使っていた場合今回どういう対応関係で探せばいいか&#34;&gt;以前 Gemma 3 を使っていた場合、今回どういう対応関係で探せばいいか
&lt;/h2&gt;&lt;p&gt;私が思うに、この世代で最も誤解しやすいのは、これを &lt;code&gt;Gemma 3&lt;/code&gt; の線形なアップグレードだと捉えてしまう点です。&lt;/p&gt;
&lt;p&gt;使用する習慣から考えると、だいたい以下のように理解できます：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;これまで &lt;code&gt;4B&lt;/code&gt; で軽いタスクを動かしていた人は、まずは &lt;code&gt;E4B&lt;/code&gt; を見てください。&lt;/li&gt;
&lt;li&gt;これまで &lt;code&gt;27B&lt;/code&gt; でモデルの限界値を見ていた人は、今度は &lt;code&gt;31B&lt;/code&gt; を見てください。&lt;/li&gt;
&lt;li&gt;これまでコンシューマー向けのグラボで「十分強力だけど、完全に動かせなくなるほどではない」というバランス点を探していた人は、重点的に &lt;code&gt;26B A4B&lt;/code&gt; を見てください。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;この部分を先に整理しておかないと、後からローカルにデプロイする際に非常に迷いやすいです。「いつものアップグレード版がないな」と文句を言いながら、実際自分に合っているモデルを見逃してしまう可能性があります。&lt;/p&gt;
&lt;h2 id=&#34;今回最も価値のあるアップデートは実はパラメータではない&#34;&gt;今回最も価値のあるアップデートは、実はパラメータではない
&lt;/h2&gt;&lt;p&gt;今回「ようやく腑に落ちた」と感じさせたのは、ランキングではなくプロトコル（ライセンス）でした。
以前のバージョンの &lt;code&gt;Gemma&lt;/code&gt; の利用規約が全く使えないわけではありませんが、ずっとどこか引っかかる部分がありました。特に以下のようなことを気にされている場合：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;再配布&lt;/li&gt;
&lt;li&gt;蒸留や二次加工を行う&lt;/li&gt;
&lt;li&gt;モデルを自社の製品ラインに組み込む&lt;/li&gt;
&lt;li&gt;商用展開を行う
といった場合、常にライセンス条項内の通知（notice）、下流利用の制限、付帯する契約などをどう処理すべきかを確認する必要がありました。
&lt;code&gt;Gemma 4&lt;/code&gt; が今回直接 &lt;code&gt;Apache 2.0&lt;/code&gt; に変更されたことで、状況が非常にクリアになりました。核となるメッセージは極めて明確です：&lt;/li&gt;
&lt;li&gt;商用利用が可能である&lt;/li&gt;
&lt;li&gt;改変が可能である&lt;/li&gt;
&lt;li&gt;再配布が可能である
義務は主に、ライセンス、通知（notice）、改変の説明といったオープンソースの世界で馴染み深いものに留まるというものです。
つまり、Googleが今回単にモデルをオープンソースにしたのではなく、「皆が安心して使えるかどうか」という点まで含めて整備してくれたのです。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;コミュニティからの初期評価は基本的に2つのラインに集約される&#34;&gt;コミュニティからの初期評価は、基本的に2つのラインに集約される
&lt;/h2&gt;&lt;p&gt;最初の週の口コミだけを見ると、大まかに2つの声があります。&lt;/p&gt;
&lt;p&gt;1つ目のラインは、「&lt;code&gt;31B&lt;/code&gt; は確かに実力がある」というものです。
公式が発表したスコアは非常に強力です。&lt;code&gt;Arena AI&lt;/code&gt; のテキストランキングでは、31B がリリースされた時点でオープンソースモデルの上位にランクインし、&lt;code&gt;LiveCodeBench v6&lt;/code&gt; でも &lt;code&gt;Gemma 3 27B&lt;/code&gt; よりかなり向上しています。多くの人が最初に抱く感想は、「このサイズでこれだけの性能が出せるのは、期待を上回っている」というものです。&lt;/p&gt;
&lt;p&gt;2つ目のラインは、「&lt;code&gt;26B A4B&lt;/code&gt; はローカルユーザーのための生命線のようなものだ」というものです。
一見して最も華やかなフラッグシップモデルというわけではありませんが、非常に現実的です。特にデータセンターではなく、コンシューマー向けのグラフィックボードやワークステーション、さらには古いマシンで動かす場合、ローカルでの体験はむしろこのラインに落ち着きやすいのです。&lt;/p&gt;
&lt;p&gt;もちろん、最初の口コミには非常に現実的な前提があります。それはエコシステムがまだ追いついている最中だということです。テンプレート、量子化、推論フレームワーク、フロントエンドツールなど、多くのものがまだ完全に追いついていません。そのため、現段階で目にするレビューは、以下の2つのレイヤーに分けて見るのが最善です。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;モデル本体&lt;/strong&gt;: 今回は確かに大きな進歩があった&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;ローカル体験&lt;/strong&gt;: 今後もツールの成熟度に影響され続けるだろう&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;第1回の結論について&#34;&gt;第1回の結論について
&lt;/h2&gt;&lt;p&gt;単に今回のGoogleが何を発表したのかを知りたいだけであれば、一言で十分です。
「Gemma 4」は、「小さいものから大きいものまで並べる密度の高いモデル」という古い考え方ではなく、デバイス側、ローカルデプロイ、品質の上限という3つの道を分離しました。「E4B」、「26B A4B」、「31B」と名前は奇妙ですが、背後にあるのは非常に現実的なデプロイメントの分業です。
しかし、もし私に今回の最大の変化は何だと尋ねられたら、やはりこの判断になります。
パラメータでも、ベンチマークスコアでもなく、Googleがようやく「Gemma 4」を皆がより安心して使えるオープンソースライセンスに組み込んだことです。
この一歩こそが、表の数字以上に重要です。
次の記事では、発表会の論調は語らず、直接ローカルマシンに戻ります。やはりアップグレードされていない「RTX 3060 12GB」を使い、なぜ私が最初に注目したのは「31B」ではなく「26B A4B」だったのか、という点です。&lt;/p&gt;
&lt;h2 id=&#34;参考資料&#34;&gt;参考資料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemma 4: Byte for byte, the most capable open models&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemma/docs/core/model_card_4&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemma 4 model card&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemma/terms&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemma Terms of Use&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemma/apache_2&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Apache License 2.0 for Gemma 4&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://foodtruckbench.com/blog/gemma-4-31b&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemma 4 31B on FoodTruck Bench&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.reddit.com/r/LocalLLaMA/comments/1san4kd/will_gemma_4_124b_moe_open_as_well/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;LocalLLaMA discussion on Gemma 4 license changes&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://developers.googleblog.com/introducing-gemma3/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemma 3: The Developer Guide&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;作成上の注記&#34;&gt;作成上の注記
&lt;/h2&gt;&lt;h3 id=&#34;元のプロンプト&#34;&gt;元のプロンプト
&lt;/h3&gt;&lt;pre&gt;&lt;code class=&#34;language-text&#34;&gt;$blog-writer Googleが1年ぶりにGemma4モデルをリリースしました。いつものように、ローカルでのデプロイを試します。使用するのはアップグレードされていないデスクトップPCに搭載されている3060 12GBのNVIDIAグラフィックボードです。今回は初出陣でしたが、以前よく使っていたGemma3のアップグレード版が見つかりませんでした。しかし、類似のバージョンであるGemmaE4bというものがあるので、まずこれを検索して紹介してください。今回リリースされた全モデルについて、含まれる略語アルファベットがそれぞれ何を意味するのかを説明し、さらにオンライン上のGemma4に関するレビューを検索してください。重要な点として、今回のGoogleによる更新でモデルのプロトコルが変更され、利用時の制限が緩和されました。最大の驚きは、私がよく使うテスト問題です。「C++コードを書いて、コンソールに五芒星を出力しなさい」というものです。昨年の小規模パラメータのオープンソースモデルではこの問題をクリアできませんでしたが、Googleはこの回で成功させました。最初の回答は私の予想を完全に超えており、私の意図した「罠」を理解していました。コンソールでの五芒星の出力は非常に厄介なので、直接アスキーアート（文字）としてハードコーディングし、コンソールに直接出力しました。原文は以下の通りです：「純粋なテキストのコンソール（Console）で数学的なロジックだけで正確な幾何学的構造を持つ五芒星を描画するのは非常に複雑であるため（座標変換やピクセル充填が関わる）、最も古典的で視覚効果が高い方法はアスキーアート（文字芸術）を使用することです。」私が計算を強制的に要求した後も、それは成功しました。数学的な計算を通じて、五芒星を描画することに成功したのです。以前はローカルでの翻訳タスクにGemma4をよく使っていました。現在ブログにある多くの過去の記事の多言語版がこのようにして作られています。ローカルテストに使用したのは：gemma-4-26b-a4bモデルで、31bバージョンは本当に遅すぎます。しかし、レビューを見ると31bの効果は非常に良く、ランキングの成績も優れています。同時にフォーラムを閲覧し、私は「VRAMが不足している場合、モデルパラメータを上げると、生成トークンの速度が急激に低下する」ということに気づきました。なぜそうなるのか説明してください。Macではこの問題は発生しません。統一メモリを使用しているため、技術的な理由を説明してください。また、もし速度が必要な場合は、やはりNVIDIAのVRAM大容量のグラフィックボードが必要です。Macのソリューションはバックアップにはなりますが、速度が出ません。今回の内容は多岐にわたるので、シリーズ記事に分割すべきか評価してください。
&lt;/code&gt;&lt;/pre&gt;
&lt;h3 id=&#34;ライティングの骨子まとめ&#34;&gt;ライティングの骨子まとめ
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;第1の記事では、「今回具体的に何がリリースされたのか」と「プロトコルがなぜ重要なのか」を明確に伝えることに専念し、ローカル体験に関する話題は取り上げないようにする。&lt;/li&gt;
&lt;li&gt;モデルラインナップの説明は、まずモデル群を分解してからアルファベットの意味を説明するという順序にし、前回のバージョンよりも論理的な流れを重視する。&lt;/li&gt;
&lt;li&gt;プロトコルに関する部分は、「今回緩和されたのはパラメータではなく、利用制限である」という判断軸を維持する。&lt;/li&gt;
&lt;li&gt;コミュニティの評価については、まとめに留め、ローカル体験に関する記述は過度に盛り込まないようにする。&lt;/li&gt;
&lt;/ul&gt;</description>
        </item>
        
    </channel>
</rss>
