思想と実践でAI時代を生き抜く人のための知の倉庫
Aries Insight— AI × Web × 思考の未来
  • ホーム
  • Web
  • TECH
  • ビジネス
  • ローカル
  • HowTo
  • ホーム
  • Web
  • TECH
  • ビジネス
  • ローカル
  • HowTo
ホーム
TECH
Stable DiffusionのPNGメタデータをローカルHTMLで読むツールをGPT 5.4 Thinking拡張モードで作った

Stable DiffusionのPNGメタデータをローカルHTMLで読むツールをGPT 5.4 Thinking拡張モードで作った

Stable DiffusionのPNGメタデータをローカルHTMLで読むツールをGPT 5.4 Thinking拡張モードで作っった TECH
2026.03.082026.03.11

最近の生成AIは、短いコード片や思いつきのサンプルを出すだけの存在ではなくなってきた。
とくに仕様がある程度整理された仕事では、「何となく動きそうなもの」を返す段階を越えて、実際に使える小さなアプリケーションをまとめて形にしてくる場面が増えている。

もっとも、それはAIが魔法使いになったという話ではない。
曖昧な願望を雑に投げれば、返ってくるものもやはり曖昧になる。だが、必要な機能、切る機能、出力の形、UIの役割までを先に詰めておけば、生成AIは驚くほど強い実装担当になる。
古い “Garbage in, garbage out” という言葉は、AI時代になっても少しも古びていない。むしろ前より効いている。

今回は、そのことをかなりはっきり実感する出来事があった。
きっかけはごく地味だ。Stable DiffusionやForgeで生成したPNGの metadata を確認するたびに、WebUIを開いたり、外部のPNG Infoサイトに投げたりするのが面倒だった。ならば、ローカルだけで完結する viewer を自分で作ればいい。
そうして作ったのが、単一HTMLで動く「Stable Diffusion Metadata Viewer」だ。

この記事の主役は、あくまでこの便利ツールである。
怪しい外部サイトに画像を渡さず、ブラウザだけでPNGの埋め込み metadata を読み、複数画像を一覧し、HTMLやJSONにも書き出せる。
ただ、その開発過程を振り返ると、もう一つ見えてくるものがあった。仕様が明確なとき、現行のAIコーディングはどこまで実用品に迫れるのか。その現在地である。

  1. このツールの主な特長
  2. はじめに
  3. 第1章 なぜ、このツールが必要だったのか
  4. 第2章 仕様を先に固めた。だからAIが強かった
    1. 仕様書の一部抜粋
  5. 第3章 完成した Stable Diffusion Metadata Viewer で何ができるのか
  6. 第5章 人間の役割は消えない。むしろ「仕様を書く力」が価値になる
  7. まとめ 便利ツールを作ったはずが、AIコーディングの現在地まで見えてしまった
  8. 公開コード
  9. 参照

このツールの主な特長

今回作成した「Stable Diffusion Metadata Viewer」は、Stable Diffusion系PNG画像に埋め込まれた生成メタデータを、ブラウザだけで安全に確認・整理できるローカルツールです。派手さよりも、日常的に使える実用性を重視した構成になっています。

  • PNG画像をドラッグ&ドロップ、または複数選択で一括読み込みできる
  • Forge / AUTOMATIC1111系の metadata を優先して整形表示できる
  • 読み取れなかった情報も raw metadata として保持し、情報を捨てない
  • Prompt、Negative Prompt、Seed、Summary などをワンクリックでコピーできる
  • ファイル名、Prompt、Model、Seed、LoRA、Raw metadata を対象に横断検索できる
  • 読み込んだ結果を、そのまま単独HTMLレポートやJSONとして書き出せる
  • すべてブラウザ内だけで処理し、画像を外部へ送信しない
[ Stable Diffusion Metadata Viewer ]のメイン画面キャプチャ
[ Stable Diffusion Metadata Viewer ]のメイン画面キャプチャ

単なる閲覧ツールではなく、「まとめて確認し、必要な情報を取り出し、あとで再利用できる」ところまで考えられているのが、このツールの強みです。

はじめに

Stable DiffusionやForgeで画像を大量生成していると、あとで地味に困る。
「あのPNG、どんなプロンプトだったっけ」「seedは?」「モデルは?」「LoRAは何を使った?」という確認のたびに、WebUIを開いたり、外部のPNG Infoサイトに画像を投げたりするのは、どうにも回りくどい。

しかも最近は、PNGをアップロードしてmetadataを見るだけのサイトも増えてきた。便利ではあるが、生成画像を毎回よそのサイトに預けるのは、あまり気分のいいものではない。遅いことも多いし、何よりローカルで完結できるなら、そのほうが筋がいい。

そこで今回は、Stable Diffusion系PNGの埋め込みメタデータをブラウザだけで読めるローカルツール「Stable Diffusion Metadata Viewer」を作ってみた。
単一HTML、外部ライブラリなし、通信なし。PNGの text chunk を直接読み、A1111 / Forge互換の parameters を整形し、複数画像の一覧表示、検索、HTML出力、JSON出力までこなす。

そして、この開発体験そのものが、現行のAIコーディング、とくに GPT 5.4 Thinking拡張モードの到達点をかなりはっきり見せてくれた。
今回は便利ツールの紹介であると同時に、「仕様が明確なら、AIはどこまで実装担当として戦えるのか」を確かめた記録でもある。


第1章 なぜ、このツールが必要だったのか

Stable Diffusion系の画像は、ただのPNGではない。
生成時のプロンプトや seed、sampler、model といった情報が、画像ファイルの中に一緒に保存されていることが多い。つまり、見た目は1枚の画像でも、中身には生成レシピが埋まっている。

これはとても便利な仕組みだ。
あとから「この当たり画像、どうやって出したんだっけ」と振り返れるし、再生成や条件比較にも使える。画像そのものが、ある種の実行ログになっていると言っていい。

ただ、問題は確認方法だった。

普段の運用では、画像を見返すたびにWebUIのPNG Info機能を開くことになる。
単発ならまだいいが、数十枚、数百枚と並んでくると、これが地味に面倒だ。複数画像を一覧で見ながら比較したいのに、確認導線がどうしても一枚単位になる。さらに、ちょっとmetadataを見たいだけなのに、アプリ全体を立ち上げるのも重い。

では外部サイトを使えばいいかというと、そこにも引っかかりがある。
最近はPNG metadata viewerのようなサービスがいくつもあるが、生成画像を毎回アップロードするのは、速度面でも気持ちの面でも落ち着かない。ローカルAIを回しているのに、最後の確認だけ外に投げるのは、どうにも収まりが悪い。

要するに、欲しかったのは次のような道具だった。

  • PNGをローカルで読む
  • 外部送信しない
  • 複数画像をまとめて確認できる
  • Prompt や seed をすぐコピーできる
  • できればHTMLレポートやJSONにも出したい

この要件を並べてみると、必要なのは単なる「PNG Info Viewer」ではない。
画像を1枚だけ開いて文字列を表示する道具では足りず、複数画像のmetadataを整理し、あとで持ち出せる形に整える必要がある。つまり欲しかったのは、Viewerというより、むしろ小さな管理ツールだった。

そこで方針を決めた。
サーバーは使わない。外部ライブラリにも頼らない。ブラウザだけで完結する単一HTMLとして作る。PNGの text chunk を直接読み、A1111 / Forge互換の parameters を整形し、一覧・詳細・検索・出力まで一気に持つ。

少し欲張りにも見えるが、逆に言えば、仕様がはっきりしていたからこそ、今回は迷いがなかった。
何を作るのかが曖昧なままAIに投げると、出てくるものも曖昧になる。だが今回は違った。必要な機能も、不要な機能も、最初からかなり明確だった。ここがあとで効いてくる。

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のヘッダー画面
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のヘッダー画面

第2章 仕様を先に固めた。だからAIが強かった

今回のツール開発で、いちばん大きかったのは、いきなりコードを書き始めなかったことだ。
先にやったのは実装ではなく、仕様の固定だった。

作りたかったのは、ただPNGを読んでmetadataを表示するページではない。
必要だったのは、Stable Diffusion系PNGの埋め込み情報を、ローカル環境だけで安全に扱える実用ツールだ。ここが曖昧なままだと、途中から「ついでにこれも」「やっぱりあれも」と話が拡散して、最終的には誰も幸せにならない。ソフトウェア開発というのは、たいていこの“ついで地獄”で崩れる。

そこで今回は、先に v1 の輪郭をかなり厳密に決めた。

まず、単一HTMLファイルで動くこと。
サーバーは使わない。外部ライブラリにも依存しない。通信もしない。画像もmetadataも、ブラウザ内だけで処理する。

次に、対象を絞ること。
対応するのはPNGのみ。しかも優先するのは A1111 / Forge互換の parameters 形式で、FooocusやComfyUIの完全対応は v1 では追わない。ここで欲張らなかったのは大きい。万能対応を目指した瞬間に、実装は一気にぬかるむ。

さらに、UIの役割も先に決めた。
左に一覧、右に詳細。上に検索と出力。複数画像を流し見しながら、1枚ずつ metadata を確認する構成にする。
ここも意外と重要で、見た目を後回しにすると、データ構造や状態管理まで後から揺れ始める。UIは飾りではなく、設計そのものだ。

出力仕様も曖昧にしなかった。
HTMLレポートは人間が読むための出力。JSONは後続処理のための出力。どちらも役割が違うので、最初から別物として扱う。
「とりあえず何かエクスポートできればいい」としてしまうと、あとで人間にも機械にも中途半端なものが残る。

つまり今回は、AIに向かって「便利なPNG viewerを作って」と投げたわけではない。
もっと具体的に、

  • 何を読むのか
  • どこまで対応するのか
  • 何を表示するのか
  • 何を出力するのか
  • 何をやらないのか

を先に固定したうえで渡した。

ここが大きかった。

生成AIは、ときどき過剰に魔法扱いされる。
だが実際には、曖昧な要求から勝手に正解を掘り当てる超能力者というより、明確な仕様に対して異常な速度で形を与える実装者に近い。
逆に言えば、仕様が曖昧なら、出てくるコードも曖昧になる。これは身も蓋もないが、かなり本質的な話だ。

昔から言われる “Garbage in, garbage out” という言葉がある。
入力が雑なら、出力も雑になるという、コンピューター業界では古典みたいな法則だ。今回の体験は、その逆側をかなり強く実感させるものだった。
曖昧でない仕様、優先順位のはっきりした要求、切るべき機能を切ったv1。その条件がそろうと、GPT 5.4 Thinking拡張モードは、驚くほど安定して強い。

もちろん、だから人間が不要になるわけではない。
むしろ逆だ。人間の役割は、以前よりはっきりした気がする。

人間がやるべきなのは、

  • 本当に必要なものは何かを決めること
  • v1で入れるものと切るものを分けること
  • UIや出力の役割を定義すること
  • 曖昧な願望を、実装可能な仕様に落とすこと

だ。

そのうえで、実装をAIに渡す。
この分業が成立したとき、AIコーディングは急に現実味を帯びる。
逆に、要求がふわふわしたまま「なんかいい感じに作って」で始めると、たいていは“なんかそれっぽいもの”で終わる。そこに奇跡はない。

今回の開発では、仕様が800行とかなり長くなった。
細かい表示項目、エラー時の挙動、Unknown形式の扱い、raw metadata を捨てないこと、複数PNGの一覧、HTMLとJSONの出力方針まで、かなり地味なところまで詰めた。
普通に考えれば面倒だが、この地味な詰めこそが、あとで実装全体の背骨になった。

結果として、AIは「PNGを読んで何か表示するサンプルコード」を返してきたのではなく、仕様を保ったまま小さなアプリケーションをまとめて実装してきた。
ここが、今回もっとも印象的だった点だ。

つまり今回の収穫は、便利なツールを1本作れたことだけではない。
AIコーディングが力を発揮する条件が、かなりはっきり見えたことにもある。

雑な願望ではなく、明確な仕様。
万能を求めるのではなく、v1として成立する範囲。
そして、失敗しても情報を捨てない設計。

この条件がそろえば、AIはもう単なるコード断片の自販機ではない。
かなり腕のいい実装担当として、本気で働く。

仕様書の一部抜粋

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] 仕様書の抜粋

第3章 完成した Stable Diffusion Metadata Viewer で何ができるのか

完成した「Stable Diffusion Metadata Viewer」は、見た目としてはとても素直な構成になった。
左に画像一覧、右に詳細表示。上に検索と出力ボタン。派手さはないが、道具としてはこのくらいがちょうどいい。

実際の使い方も単純だ。
PNGファイルをドラッグ&ドロップするか、追加ボタンから複数画像をまとめて読み込む。すると一覧側に、サムネイル、ファイル名、Promptの抜粋、Model、Seed、Steps、Sampler、状態バッジが並ぶ。
この時点で、ただの「1枚ずつ見るビューア」ではなく、すでに小さな管理ツールとして振る舞っている。

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] の画面の抜粋キャプチャ
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] の画面の抜粋キャプチャ

一覧から1枚選ぶと、右側に画像の大きなプレビューと詳細情報が表示される。
ファイル名や画像サイズだけでなく、判定ツール種別、Prompt、Negative Prompt、Steps、Sampler、CFG scale、Seed、Model、Model hash、Version などをまとめて確認できる。
つまり、「この画像は何で、どう作られたのか」を1画面で追える。

これが思った以上に快適だった。
普段のWebUIでは、metadata確認はどうしても“画像を開いて、その1枚の設定を見る”という流れになりがちだ。だがこのツールでは、複数画像を並べて眺めながら、気になる1枚をその場で掘れる。
この差は地味だが大きい。生成画像が10枚を超えたあたりから、効いてくる。

とくに便利だったのは、検索とコピーの導線だ。
検索欄には、ファイル名、Prompt、Model、Seed、LoRA、Raw metadata まで含めた横断検索がかかる。
「あの seed どこだっけ」「flux1-dev-bnb-nf4-v2 で出した画像だけ見たい」「この単語を含むPromptを探したい」といった用途に、そのまま使える。

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] の検索結果画面のキャプチャ
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] の検索結果画面のキャプチャ

コピー機能も実務的だ。
Prompt、Negative Prompt、Seed、Raw metadata をその場でコピーできるので、あとで再生成したり、記事に貼ったり、検証メモに移したりしやすい。
このあたりは派手ではないが、使ってみると効く。結局、人間がいちばんよくやるのは「見る」「比べる」「貼る」だからだ。

そして、このツールを単なるビューア以上のものにしているのが、出力機能だ。

まずHTML出力。
読み込んだ画像群を、サムネイル付きの単独HTMLレポートとして保存できる。画像は data URI として埋め込まれるので、後からそのHTMLを開くだけで、生成記録の一覧をそのまま見返せる。
これは思った以上に便利で、単なる確認用というより、生成ログのベタ焼きに近い感覚がある。昔の写真のコンタクトシートを、AI画像でやっている感じだ。

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のHTML出力画面のキャプチャ
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のHTML出力画面のキャプチャ
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のHTML出力のコード。
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] のHTML出力のコード。

JSON出力も地味に強い。
見た目には地味だが、こちらは将来の拡張に効く。
ファイル名、Prompt、Steps、Sampler、Seed、Model、LoRA、Raw metadata などを整形した形で吐き出せるので、そのまま別ツールで扱ったり、台帳化したり、あとからまとめて処理したりできる。
人間が見るのはHTML、機械が扱うのはJSON。この役割分担がきれいに分かれたのは大きい。

[
  {
    "filename": "00000-1501233089.png",
    "status": "ok",
    "tool": "a1111-compatible",
    "width": 1200,
    "height": 624,
    "prompt": "high energy particle collision visualization, glowing particle trajectories intersecting in space, abstract physics scattering lines, deep black background, neon blue and purple light trails, quantum particle interaction, elegant scientific aesthetic, cinematic lighting, ultra detailed, sharp focus",
    "negative_prompt": "",
    "steps": 20,
    "sampler": "Euler, Schedule type: Simple",
    "scheduler": "",
    "cfg_scale": 3.5,
    "seed": "1501233089",
    "size": "1200x630",
    "model": "flux1-dev-bnb-nf4-v2",
    "model_hash": "fef37763b8",
    "vae": "",
    "clip_skip": "",
    "version": "f2.0.1v1.10.1-1.10.1, Module 1: ae",
    "loras": [
      "ae"
    ],
    "raw": "[parameters | tEXt]\nhigh energy particle collision visualization, glowing particle trajectories intersecting in space, abstract physics scattering lines, deep black background, neon blue and purple light trails, quantum particle interaction, elegant scientific aesthetic, cinematic lighting, ultra detailed, sharp focus\nSteps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5, Seed: 1501233089, Size: 1200x630, Model hash: fef37763b8, Model: flux1-dev-bnb-nf4-v2, Version: f2.0.1v1.10.1-1.10.1, Module 1: ae"
  },
  {
    "filename": "00001-1501233090.png",
    "status": "ok",

...

もうひとつ、このツールの良いところは、「分からないものを無理に分かったふりをしない」ことだ。
A1111 / Forge互換の parameters はかなりうまく整形できるが、完全に解釈しきれない項目や、形式の揺れたmetadataも当然ある。
そのとき、このツールは変に情報を捨てず、raw metadata をそのまま保持する。
つまり、整形に失敗しても痕跡は残る。これは実用品としてかなり重要で、ソフトウェアが勝手に“きれいにしたつもり”で情報を消してしまうより、ずっと信頼できる。

実際、今回の出力でも改善余地は残っている。
たとえば Sampler: Euler, Schedule type: Simple のように sampler と scheduler の分離をもう一段きれいにしたい箇所があるし、Distilled CFG Scale の扱いも v1.1 ではもう少し丁寧にしたい。
だが、これは壊れているのではない。
むしろ、読めるものは読む、曖昧なものは raw に残す、という安全側の実装方針が通っている証拠だ。

このあたりを含めて、完成した Stable Diffusion Metadata Viewer は、単なる「PNGの中身を見せるページ」ではなくなった。
実際には、

  • 複数画像をまとめて管理し
  • metadata を比較し
  • Prompt や Seed を再利用し
  • HTML や JSON に書き出せる

という、小さな作業台になっている。

ここが面白い。
見た目はローカルHTMLの軽いツールなのに、役割としてはかなり実務寄りなのだ。
しかも、外部送信なし、追加インストールなし、ブラウザ内完結。
この軽さでここまでできると、妙な外部サイトを開く理由がかなり薄くなる。

要するに今回作れたのは、「metadataが見えるページ」ではない。
Stable DiffusionのPNGを、画像としてではなく“生成履歴つきオブジェクト”として扱うための道具だった。

この違いは、使ってみるとかなり大きい。

この「ちゃんと守られていた」が大きい。
生成AIは、ときどき賢そうな断片を出す。見た瞬間はすごく見える。でも、少し触ると、条件のどこかが抜けていたり、後半で別の仕様にすり替わっていたりすることがある。
今回はそうではなかった。少なくとも今回の体験では、GPT 5.4 Thinking拡張モードは、単なるコード断片生成ではなく、仕様を保持したまま小さなアプリを着地させる ところまで来ていた。

しかも面白いのは、派手なところではなく、地味で面倒なところを逃げなかったことだ。
PNGチャンクの扱い、圧縮テキストへの対応、壊れた入力で全体を止めない設計、raw metadata の保持、検索対象の組み立て、レポートHTMLへの画像埋め込み。こういう部分は、人間でも途中で「まあいいか」と投げたくなる。
しかし、実用品とお遊びコードの境目は、いつもそういう退屈な場所にある。今回のコードは、その境目をちゃんと越えていた。

ここは少し盛って言ってしまってもいいと思う。
これはもう「AIがちょっとコードを書ける」段階ではない。
少なくとも、仕様が固まっている小規模アプリに関しては、AIがかなり本気で実装担当として働ける段階に入っている。
便利なおもちゃではなく、普通に戦力。ここは率直に認めていい。

もちろん、だからといって「人間不要」にはならない。
むしろ逆だ。今回の体験は、人間の役割をよりはっきり見せた。

人間がやるべきなのは、曖昧な願望を実装可能な仕様に落とすことだ。
何を優先するか。何をv1で切るか。何を表示し、何を出力し、何を捨てないか。
そこが曖昧なままだと、AIは賢そうなものを出しても、結局ふわっとしたものになる。
今回うまくいったのは、魔法のプロンプトがあったからではない。仕様がきちんと整理されていて、AIが迷わず走れるレールが敷かれていたからだ。

これは、昔ながらの “Garbage in, garbage out” を裏返したような話でもある。
雑な入力からは雑な出力しか出ない。
ならば逆に、明確で整理された仕様を渡せば、出力も驚くほど強くなる。
今回の結果は、まさにそれを実感させるものだった。

実際、完成物には改善余地も残っている。
Sampler と Schedule type の分離はもう少しきれいにしたいし、Distilled CFG Scale は独立項目として持たせたい。Version に Module 1 が飲み込まれているような箇所も、v1.1では整理したい。
だが、ここがむしろ重要だ。
今回の成果は、完璧だからすごいのではない。v1として十分成立し、そのうえで改善点が健全に見えている から信用できるのだ。

AIが全部分かったふりをして、無理やりきれいにまとめたわけではない。
読めるものは読む。読めないものは raw に残す。失敗しても全体は止めない。
この設計の理性が、コード全体にも通っている。
だからこそ、これは単なる「たまたま動いたデモ」ではなく、実用品としての説得力を持つ。

今回の体験を一言で言えば、こうなる。

GPT 5.4 Thinking拡張モードは、曖昧な願望を勝手に奇跡へ変える魔法使いではない。
しかし、明確な仕様を渡えれば、驚くほど筋のいい実装をまとめて返してくる。

この差は大きい。
前者を期待すると、だいたいがっかりする。
後者として使うと、かなり恐ろしい戦力になる。

そして、ここがいちばん面白い。
今回作ったのは、派手なデモやジョークアプリではない。
PNG metadata viewer という、かなり地味で現実的な道具だ。
実用品はごまかしが効かない。見た目だけでは済まない。
その種目で、ここまでまとまったものが出てきた。だからこそ衝撃がある。

AIコーディングの進歩は、キャッチーな花火ではなく、こういう地味な工具に出る。
そして今回の Stable Diffusion Metadata Viewer は、そのことをかなり雄弁に示していた。

第5章 人間の役割は消えない。むしろ「仕様を書く力」が価値になる

今回の体験で、いちばん安心したことがある。
それは、AIコーディングがここまで強くなっても、人間の役割は消えないということだ。

もちろん、以前とは役割の重心が少し変わる。
昔ながらの開発では、人間が仕様を考え、人間が細部を実装し、人間が泥臭い例外処理まで抱え込んでいた。
だが今回のように、GPT 5.4 Thinking拡張モードがかなり筋のいい実装をまとめて返してくる世界では、人間が一文字ずつコードを書くこと自体の価値は、相対的には少し薄くなる。

その代わり、別の力が前に出てくる。
何を作るべきかを定義する力。
v1で何を入れ、何を切るかを決める力。
曖昧な願望を、実装可能な仕様に落とす力。
このあたりの重みが、むしろ増している。

今回の Stable Diffusion Metadata Viewer も、もし出発点が「なんかPNGの情報を見られる便利ツール」くらいの曖昧さだったら、ここまで綺麗には着地しなかったはずだ。
単一HTMLで行くのか。外部ライブラリを使うのか。どこまで対応するのか。PNGだけに絞るのか。A1111 / Forgeを優先するのか。Fooocusをいったん切るのか。HTMLとJSONを両方出すのか。
こういう判断は、コードを書き始める前に誰かが決めなければならない。

そして、その「誰か」は今のところ人間だ。

AIは仕様が明確なら強い。
だが、仕様の優先順位そのものを引き受けると、まだ少し怪しい。
全部入りに寄せすぎたり、逆に無難すぎたり、ユーザーの本当の痛点ではなく“それっぽい便利さ”に流れたりすることがある。
つまりAIは、実装者としてはかなり優秀だが、プロダクトの責任者としてはまだ人間の目が必要だ。

ここが面白いところで、AIが強くなるほど、人間に求められるのは“細かい作業耐性”ではなく、“判断の骨格”になっていく。
全部自分で手を動かしていた時代は、どうしても「書ける人」が強かった。
これからは、それに加えて「決められる人」「切れる人」「仕様に責任を持てる人」がさらに強くなる。
便利そうなものを全部載せるのではなく、v1として成立するところまで絞り込めるか。そこが価値になる。

言い換えると、AI時代の人間に残る仕事は、雑用ではなく設計思想だ。
それは少し救いがある話でもある。
人間が最後まで担うべきなのが、退屈な転記や単純作業ではなく、「何を作るべきか」「何を捨てるべきか」「どこに誠実さを残すか」という部分だからだ。

今回のツールで言えば、その誠実さはかなりはっきりしていた。
読めるmetadataは整形する。
読めないものは Unknown として扱う。
それでも raw は捨てない。
1件失敗しても全体は止めない。
HTMLは人間向け、JSONは機械向けと役割を分ける。
こうした判断は、どれもコードの書き方というより、ツールの思想の問題だ。
そして、この思想を先に決めていたからこそ、AIは迷わず強く走れた。

ここで古い格言がまた効いてくる。
“Garbage in, garbage out.”
雑な入力からは雑な出力しか出ない。
これは今も変わらない。
むしろAIが強くなったぶん、この法則は前より目立つようになった気がする。
曖昧な仕様を投げれば、曖昧だが見た目だけは立派なものが返ってくる。
逆に、優先順位が整理された仕様を投げれば、返ってくる実装の質も驚くほど上がる。

つまり、AI時代に価値が上がるのは、プロンプト芸そのものではない。
もっと地味で、もっと本質的な力だ。
何が必要かを見抜くこと。
それを削ぎ落として仕様にすること。
そして、AIが迷わず走れるコースを引くこと。
今回の開発は、そのことをかなりはっきり見せてくれた。

少し大げさに言えば、これからの開発は「人間が全部作る」でも「AIに全部丸投げする」でもない。
その中間に、かなり実用的な新しい分業が生まれつつある。

人間が考える。
人間が決める。
人間が責任を持って切る。
AIが実装する。
人間が検証して整える。
必要ならまた仕様を詰める。

この往復だ。

今回の Stable Diffusion Metadata Viewer は、その分業がかなりうまく機能した例だった。
だからこそ、単なる「便利ツールを作りました」で終わらせるには惜しい。
ここで見えたのは、小さなローカルツールの完成だけではない。
AIコーディング時代に、人間の価値がどこへ移っていくのか という輪郭でもあった。

人間不要ではない。
むしろ、人間が曖昧でいられなくなる。
そこは少し厳しいが、同時にかなり健全でもある。
雑な願望を投げて奇跡を待つのではなく、必要なものを自分で定義し、そのうえでAIの力を最大限に引き出す。
この関係は、たぶん今後かなり強い。

そして今回、その片鱗ではなく、かなり実用的な形がすでに見えてしまった。
そこに、ちょっとした怖さと、かなり大きな面白さがある。

まとめ 便利ツールを作ったはずが、AIコーディングの現在地まで見えてしまった

今回作った「Stable Diffusion Metadata Viewer」は、出発点だけ見ればとても地味なツールだった。
怪しい外部サイトにPNGを投げたくない。WebUIを毎回開くのは重い。生成画像の Prompt や Seed を、ローカルでさっと確認したい。
最初の動機はその程度で、言ってしまえば「ちょっと不便だから、自分で道具を作ろう」という、ごく現実的な話だった。

しかし、実際に作ってみると、このツールは単なるPNG viewerでは終わらなかった。
複数画像をまとめて読み込み、一覧で比較し、Prompt や Model や Seed を確認し、その場で検索し、HTMLレポートやJSONとして持ち出せる。
つまりこれは、画像を1枚だけ開いてmetadataを眺める道具ではなく、Stable DiffusionのPNGを「生成履歴つきオブジェクト」として扱うための小さな作業台になった。

そして、もっと面白かったのは、その開発体験そのものだった。
仕様を先に固め、v1でやることと切ることを明確にし、曖昧な願望ではなく実装可能な形に落とし込んで渡したとき、GPT 5.4 Thinking拡張モードは、かなりの水準でその期待に応えてきた。
単なるコード断片ではなく、制約をまたいで整合性を保ったまま、小さなアプリケーションとして着地させてきたのである。これは正直、予想以上だった。

もちろん、だから人間不要だとは思わない。
むしろ逆に、人間の役割は前よりはっきりした。
何を作るべきか。何をv1で切るか。何を捨てずに残すか。どこに誠実さを置くか。
そうした仕様策定と優先順位付けの質が、そのままAIの出力品質に跳ね返る。今回の結果は、古い “Garbage in, garbage out” を、かなり説得力のある形で裏付けていた。

曖昧な入力から、まともな結果は出てこない。
AIコーディングの時代になっても、この原則はむしろ強くなったように思う。
今回の開発体験を一言でまとめるなら、こうなるだろう。

Spec in, software out.

明確な仕様を渡せば、AIはかなり筋の通ったソフトウェアを返してくる。
逆に、曖昧な願望しか渡さなければ、出てくるものも曖昧なままだ。

便利ツールを作ったはずが、気づけばAIコーディングの現在地まで見えてしまった。
それが今回いちばん大きな収穫だったのかもしれない。
AIは、曖昧な願望を勝手に奇跡へ変える魔法使いではない。だが、明確な仕様と判断の骨格を渡えれば、驚くほど筋のいい実装を返してくる。
この関係をうまく使えるなら、これからの開発はかなり面白くなる。

少なくとも今回、その可能性はもう“未来の話”ではなかった。
ローカルで動く小さな道具の中に、すでに十分すぎるほど現れていた。

ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] は数十ファイルくらいは軽く処理してくれる。
ローカル完結で複数のPNGメタデータを確認できるツール[ Stable Diffusion Metadata Viewer ] は数十ファイルくらいは軽く処理してくれるはず

公開コード

今回の「Stable Diffusion Metadata Viewer」は、単一HTMLで動くローカル完結型ツールとして公開します。
PNG画像をブラウザに読み込むだけで、Forge / AUTOMATIC1111系の生成 metadata を確認し、検索し、HTML / JSONとして書き出せます。

画像はブラウザ内で処理され、外部へ送信されません。
ローカルで安心して使える metadata viewer が欲しい方は、以下から試してみてください。

  • ダウンロード:
    stable-diffusion-metadata-viewer_v1.html

単一HTMLなので、保存して開けばすぐ使えます。
今回の実装を通じて、AIコーディングはもう「気の利いたお遊び」ではなく、条件が揃えば実用品を一気に形にできる段階へ来ていると実感しました。
その空気が、この小さなツールから少しでも伝われば嬉しいです。

参照

Stable Diffusion web UI
https://github.com/AUTOMATIC1111/stable-diffusion-webui

Stable Diffusion WebUI Forge
https://github.com/lllyasviel/stable-diffusion-webui-forge


SD WebUI ForgeのDynamic Promptsで色・服・画風を組み合わせて量産する方法(Combinatorial 対応)
Stable Diffusion WebUI ForgeでDynamic Promptsを使い、色・服・画風を組み合わせて効率的に量産する方法を解説。Combinatorial generation設定やstyles_integrated.csvの仕組み、img2imgで画風を試す実例も紹介。
b.aries67.com
2026.02.27
生成AI画像の選別が爆速に。Nextcloud Memoriesで“数打ちゃ当たる”時代のファイル管理革命
1フォルダ1000枚超でもサクサク!Nextcloudの「Memories」がPhotosのもっさり感を吹き飛ばす。生成AI画像管理にも使える快適ギャラリーの実力とは?
b.aries67.com
2025.08.11
TECH
ForgeGPT-5.4HTMLJavascirptPNG metadataStable Diffusion
アリエスをフォローする
アリエス

関連記事

HowTo

draw.ioにAIを搭載した Next AI Drawio の価値── 自然言語による作図の快感

AIに自然語で指示するだけで図の下書きを生成できる「Next AI Drawio」を検証。OSI参照モデルやActive Directoryの抽象概念図を例に、AI作図の価値と限界、人間が担う最終調整の役割を整理する。
TECH

LIFEBOOK S938/S ジャンク活用ガイド|Windows11対応・SSD交換・メモリ増設まで

Windows11に対応するモバイルPCを入手せよ! 私はモバイルPCやガジェットに目がない種類の人間です。いえ、でした..か。古くは ThinkPad 230Cs というIBM時代にはじめてカラー液晶を搭載したB5モバイルサイズのマシンか...
HowTo

HAILA v1.0 ─ AIと人間の継続学習を設計する新しい学習アーキテクチャ

HAILA v1.0は、人間とAIが継続的に学習するための設計体系です。保存カード、再開フロー、モデル互換設計など、対話型学習の標準構造を定義します。「検索で終わるAI」から「学び続けるAI」へ。
HowTo

ゼロトラストを中小企業語に翻訳する ─ VPNから始める現実的な導入ステップ

「ゼロトラストは難しい」と感じる中小企業向けに、基本概念を平易に解説。VPN依存のリスク、端末健全性チェック、条件付きアクセス、最小権限化など、スモールステップで導入する現実的な方法を提示します。段階導入でコストを抑えつつ、防御力を高める実践的ガイド。
HowTo

ChatGPTを使いこなす人の習慣 ─ 第4回 | ChatGPTに“書かせるな” ─ 編集プロンプト術

ChatGPTは「書かせる」と暴走するが、「編集させる」と最強になる。編集モードへの切り替え方と、文章の色を残したまま完成度を上げる二段階プロンプト術。
TECH

ZapierでもMakeでもない ―“借りる自動化”から“持てる自動化”へ。TrueNAS × n8n という新しい選択肢

ZapierやMakeの“借りる自動化”に限界を感じた人へ。TrueNAS×n8nで実行回数課金ゼロ・データ主権を自分で握る新しい自動化の選択肢を解説します。
GPT-5.4 Thinkingを触ってみた。標準と拡張の違いを実験してみる
AIを裁けない世界

新着情報

  • Strykerサイバー攻撃の本当の怖さ ─ Active Directory陥落という企業文明の弱点
  • 次に騙すのはAIだ! ─ Agent Commerceと詐欺の進化
  • Stable DiffusionからFLUXへ ─ 画像生成AIを作った“数人の天才”
  • AIに選ばれるメディア ─ Agent Commerce時代のレビューと信頼
  • AIはクリックしてよいのか ─ Perplexity訴訟と「Agent Commerce」という新しい取引モデル

プロフィール

編集長
アリエス
アリエス

Aries Insight 編集長。
AI・Web技術を軸に、「思考」と「実装」のあいだを言葉でつなぐ。

派手なトレンドより、使い続けられる技術。
断定より、文脈。
評価より、理解。

春日部を拠点に、AI時代を生き抜くための“考えるための道具箱”を編み続けている。

アリエスをフォローする

ご相談・お問い合わせ

ご相談・お問い合わせ

小規模環境のDX化・AI・DB構成、運用の相談などを受け付けています。

相談してみる

タグ

AI ローカルLLM OpenAI LM STUDIO LLM Google AI思想 セキュリティ Microsoft ChatGPT MCP ChatGPT対話学習 gpt-oss Qwen Gemini RTX3060 Gemma Nextcloud ChatGPT対話学習シリーズ基礎編 Copilot IT偉人伝 Claude 生成AI Human-in-Command RAG TrueNAS AI倫理 NVIDIA GPU史 ChatGPTを使いこなす人の習慣 n8n CUDA 画像生成AI Anthropic Linux NAS AI電力クライシス AI統合OSと人間の未来 Robotics AIコーディング AIを手元に取り戻す設計 OSS Stable Diffusion AIエージェント VISION推論 AIアアプリ構築シリーズ yt-dlp GPT DX Sora Windows Perplexity Apple AI学習 SVG API Wordpress python Meta GPT-5

カテゴリー

  • HowTo
  • TECH
  • Web
  • ビジネス
  • ローカル

アーカイブ

  • 2026年3月
  • 2026年2月
  • 2026年1月
  • 2025年12月
  • 2025年11月
  • 2025年10月
  • 2025年9月
  • 2025年8月
  • 2025年7月
  • 2025年6月
  • 2024年12月
  • 2024年11月
  • 2024年10月
  • 2024年9月
  • 2024年7月
  • 2023年8月
  • 2023年7月
  • 2022年7月
  • 2020年8月

お気軽にご相談ください。初回相談は無料です。

小規模環境のDX・AI・DB構成のご相談

流行りの構成や理想論ではなく、「その環境・その予算・その運用」で回る形を一緒に整理します。
技術や運用の方向性に悩んでいる段階でも大丈夫です。
埼玉県近隣の方はお伺いもできます。

相談してみる
Aries Insight— AI × Web × 思考の未来
  • ホーム
  • プライバシーポリシー
  • 免責事項
  • TECH
  • HowTo
  • ビジネス
  • Web
© 2020-2026 Aries Insight— AI × Web × 思考の未来.
  • ホーム
  • プライバシーポリシー
  • 免責事項
  • TECH
  • HowTo
  • ビジネス
  • Web