<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>图像生成 on 向叔记事簿</title>
        <link>https://ttf248.life/tags/image-generation/</link>
        <description>Recent content in 图像生成 on 向叔记事簿</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language><atom:link href="https://ttf248.life/tags/image-generation/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>ChatGPT Images 2.0 很强，截图以后还能信吗</title>
        <link>https://ttf248.life/p/chatgpt-images-2-screenshot-trust/</link>
        <pubDate>Sat, 25 Apr 2026 00:38:42 +0800</pubDate>
        
        <guid>https://ttf248.life/p/chatgpt-images-2-screenshot-trust/</guid>
        <description>&lt;p&gt;开始我其实没想着测。刷到 OpenAI 在 2026 年 4 月 21 日发 &lt;code&gt;ChatGPT Images 2.0&lt;/code&gt; 的新闻时，我的第一反应是，又一个图像版本更新。直到我瞅了眼 Artificial Analysis 的榜单，&lt;code&gt;GPT Image 2 (high)&lt;/code&gt; 已经排到文本生成图片第一，Elo 1332，我就有点意难平，还是去试了几轮。&lt;/p&gt;
&lt;p&gt;结果挺直接，中文效果很好，漫画也能做，连续多张图的角色和叙事稳定性也上来了。但我后面越试越觉得，这次真正值得写的不是“它更会画了”，而是“它开始让一些原来默认可信的东西变得不太可信了”。这件事比排行榜更麻烦。&lt;/p&gt;
&lt;h2 id=&#34;先说它到底强在哪&#34;&gt;先说它到底强在哪
&lt;/h2&gt;&lt;p&gt;OpenAI 这次官方名字叫 &lt;code&gt;ChatGPT Images 2.0&lt;/code&gt;，榜单里对应的是 &lt;code&gt;GPT Image 2 (high)&lt;/code&gt;，别混了。官方介绍里写得很明确，这一代不只是画质提高，而是把 &lt;code&gt;thinking mode&lt;/code&gt; 也接进来了，可以接 live web search，可以一次提示生成多张图，还能把一个很粗的提示词扩成研究过、想清楚的最终图。&lt;/p&gt;
&lt;p&gt;这个变化放到中文场景里，体感非常明显。以前中文出图很多时候不是不能用，是要反复修。字会飘，意思会跑，风格会前后不一，漫画分镜尤其折腾。现在我试下来，中文 prompt 的服从度高了不少，做漫画页、角色设定页、连续内容，已经不是“偶尔撞对”，而是能进入可用区间了。&lt;/p&gt;
&lt;p&gt;官方示例也很直白，日文漫画页、多语言排版、连续多页叙事、密集文字信息图，全都摆出来了。说实话，这不是那种“再进步一点点”的版本，是工作流会跟着变的版本。很多以前要来回改十轮的东西，现在一轮就能先出七八成。&lt;/p&gt;
&lt;h2 id=&#34;麻烦不是它不会画是它太会画了&#34;&gt;麻烦不是它不会画，是它太会画了
&lt;/h2&gt;&lt;p&gt;但限制也没消失。&lt;/p&gt;
&lt;p&gt;我自己试的时候，一个很明显的感受是，平台还是有边界。你想直接点某些具体风格、具体 IP、现实人物敏感场景，系统并不会老老实实全给你。OpenAI 的 system card 其实也把原因写得很明白了，这一代因为真实感更强，如果没有额外防护，会更容易产出更有说服力的深度伪造内容，尤其是现实人物、现实地点、现实事件那种。&lt;/p&gt;
&lt;p&gt;所以这一代最拧巴的地方就在这。&lt;/p&gt;
&lt;p&gt;一边，它确实比以前强太多了，强到你会忍不住继续试，继续抠细节，继续想把以前做不到的东西补回来。
另一边，它也必须更严，严到有些需求你如果还想着靠提示词去“绕”，本质上已经不是在用工具创作，而是在跟风控系统掰手腕了。&lt;/p&gt;
&lt;p&gt;这块我不展开聊版权法务细节了，太容易聊散。我的判断很简单，边界还在，而且以后只会越来越像真实社会里的边界，不会因为模型更强就自动消失。&lt;/p&gt;
&lt;h2 id=&#34;以后截图还能不能信&#34;&gt;以后截图还能不能信
&lt;/h2&gt;&lt;p&gt;这才是我后面真正有点傻眼的地方。&lt;/p&gt;
&lt;p&gt;以前大家担心 AI 图，更多是“AI 味太重”，一眼假，顶多骗骗不仔细看的人。现在麻烦的是，很多图已经不是“像不像 AI 画的”，而是“像不像你昨天在群里真看到过的截图”。&lt;/p&gt;
&lt;p&gt;收据、聊天记录、转账页面、商品后台、订单界面，这些东西本来就不是艺术创作，它们的视觉结构非常固定，信息密度也不高。对图像模型来说，这反而是另一种适合伪造的目标。只要文字稳定性、界面一致性、局部真实感上来，做一张“看着像那么回事”的截图，门槛已经低很多了。&lt;/p&gt;
&lt;p&gt;OpenAI 在 system card 里提了两件事，一个是继续带 &lt;code&gt;C2PA&lt;/code&gt; 来源元数据，一个是加了不可见水印。这方向当然对，不做更不行。但是问题也很现实，普通人真正接触到的图片，往往不是原图。&lt;/p&gt;
&lt;p&gt;它会经过微信、微博、小红书、朋友圈、群聊转发、裁切、压缩、二次保存。走完这一圈之后，元数据还在不在，谁会去查，平台给不给看，基本都是问号。&lt;/p&gt;
&lt;p&gt;也就是说，技术侧已经开始补“来源证明”，但社会侧还活在“有图有真相”的旧习惯里。这个落差，才是我觉得最麻烦的地方。&lt;/p&gt;
&lt;p&gt;以后一张截图，大概率只能算线索，不能天然算证据了。真要较真，得看原始文件、看导出记录、看时间链、看上下文、看能不能交叉验证。单张图像本身的证明力，正在被模型能力一点点打穿。&lt;/p&gt;
&lt;h2 id=&#34;我们以后相信的可能不是图而是证据链&#34;&gt;我们以后相信的，可能不是图，而是证据链
&lt;/h2&gt;&lt;p&gt;所以我现在对这类模型的感觉有点复杂。&lt;/p&gt;
&lt;p&gt;它确实强，而且不是空喊。2026 年 4 月 25 日这会儿看榜单，&lt;code&gt;GPT Image 2 (high)&lt;/code&gt; 就摆在第一。中文好，漫画能做，多图连续性和文字控制都上来了，这些提升都是真的。对创作者、运营、设计、做内容的人来说，这就是生产力。&lt;/p&gt;
&lt;p&gt;但是同一件事的另一面也是真的。&lt;/p&gt;
&lt;p&gt;当一张“看起来很真实”的图变得便宜，社会就不能再沿用过去那套低成本信任机制了。以前我们默认截图大概率是真的，以后这个默认值要往下调。尤其是收据、微信聊天、支付页面、订单记录这种东西，我觉得以后都得多问一句，原始来源呢？能不能复核？&lt;/p&gt;
&lt;p&gt;怎么说呢，以前 AI 图的问题，是不够真。现在 AI 图的问题，开始变成太真。&lt;/p&gt;
&lt;p&gt;这可能才是 &lt;code&gt;ChatGPT Images 2.0&lt;/code&gt; 真正跨过去的那条线。能力当然很猛，但更麻烦的是，它顺手把“截图以后还能不能信”这件事，也一起推到了台前。&lt;/p&gt;
&lt;h2 id=&#34;参考资料&#34;&gt;参考资料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/index/introducing-chatgpt-images-2-0/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Introducing ChatGPT Images 2.0 | OpenAI&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://deploymentsafety.openai.com/chatgpt-images-2-0&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ChatGPT Images 2.0 System Card | OpenAI Deployment Safety Hub&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://artificialanalysis.ai/image/leaderboard/text-to-image&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Text to Image Leaderboard | Artificial Analysis&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;写作附记&#34;&gt;写作附记
&lt;/h2&gt;&lt;h3 id=&#34;原始提示词&#34;&gt;原始提示词
&lt;/h3&gt;&lt;blockquote&gt;
&lt;p&gt;ChatGPT 发布了 Image2，刷到过相关新闻，开始没想着测试，瞅了眼排行榜，真遥遥领先，试了下，中文的效果很好。能做漫画，加上了推理能力，能一次性出多张内容连续的图片。还是版权问题，不能直接出日漫风格的图片，需要技巧进行绕过。开始只想到了这版本的出图能力很强，后面发现，太真实也不行，让大家对于截图失去了信任。收据、微信截图，以后还能不能相信？&lt;/p&gt;&lt;/blockquote&gt;
&lt;h3 id=&#34;写作思路摘要&#34;&gt;写作思路摘要
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;把开头落在“原本没想测，看到榜单后去试”这个个人触发点，而不是从产品公告起笔。&lt;/li&gt;
&lt;li&gt;正文先确认这代能力到底强在哪，重点写中文、多图连续性、漫画和推理接入后的工作流变化。&lt;/li&gt;
&lt;li&gt;中段保留“边界还在”的判断，但不展开成版权绕过教程，也不把正文写成法务讨论。&lt;/li&gt;
&lt;li&gt;把主线从“模型更强”压到“默认信任截图这件事正在失效”，让收据和微信截图成为现实落点。&lt;/li&gt;
&lt;li&gt;结尾回到一个更具体的判断，以后可信的不是单张图，而是可复核的来源和证据链。&lt;/li&gt;
&lt;/ul&gt;</description>
        </item>
        
    </channel>
</rss>
