1 ポイント 投稿者 GN⁺ 2025-10-30 | 1件のコメント | WhatsAppで共有
  • 複数の生成AI画像編集ツールの結果を比較する形式のコンテンツ
  • 各ツールが同一の入力に対して生成した編集結果を視覚的に比較する構成
  • ページには「Loading editing comparisons...」という文言が表示されており、編集比較を読み込み中であることを示している
  • タイトル以外に、具体的なツール名、比較基準、結果の説明などは提供されていない
  • 全体としてAI画像編集の性能比較のためのインターフェースに見えるが、詳細な内容は原文にない

ページ概要

  • タイトルは**「Generative AI Image Editing Showdown」**で、複数のAI画像編集モデルの比較を示唆している
  • 本文には「Loading editing comparisons...」という文言だけがあり、比較結果や説明は含まれていない
  • 追加のテキスト、データ、画像、ツール一覧、評価基準などは原文にない

提供情報の限界

  • 原文には編集結果や比較内容に関する具体的な説明がない
  • したがって、比較の目的、使用されたAIモデル、評価方法などは明示されていない
  • 全体としてコンテンツが読み込み中の状態であり、実質的な情報は提供されていない

1件のコメント

 
GN⁺ 2025-10-30
Hacker Newsの意見
  • みんな Gemini 2.5 Flash Image / Nano Banana を過小評価している
    他のモデルよりはるかに強力なのに、画像あたりの価格は同じで、テキストエンコーダのおかげでより 複雑で繊細なプロンプト を扱える
    私が作った gemimg Pythonパッケージで作例を公開していて、さらに多くの事例を載せたブログ記事も準備中だ
    Googleの AI Studio では、アスペクト比の制御までできる無料生成にも対応している
    ただ、Seedream 4.0が今回のテストで勝ったのは意外だった

    • 実際、Nano Bananaはリリース当時かなり バズった
      ChatGPTの内蔵機能やジブリ風スタイルの流行を除けば、最もよく知られた画像編集モデルの1つだと思う
    • Seedreamはプロンプト忠実度の面では優勢だったが、やや 色のグラデーション変化 を起こしやすい傾向がある
      私の用途では大きな問題ではないが、色味の一貫性が重要な人にはNano Bananaの方が向いているかもしれない
    • Nano Bananaを使うと、半分くらいはAI Studioが理由もなく失敗したと表示する
      著作権のグレーゾーンにある依頼でもなかったのに、こうしたエラーが多い
      それでも成功したときの結果は 非常に印象的
    • 散らかった自分のキッチン写真を片付けるためにNano Bananaを使ったが、最初は完全に失敗した
      2回目の試行では、先に画像解析で 散らかった物の一覧 を抽出し、その後プロンプトで削除したところ、ずっと良い結果になった
      結局、プロンプトエンジニアリング の重要性を改めて実感した
    • Geminiはうまく動くときは素晴らしいが、ときどき完全に的外れな結果を出して、どんなプロンプトを使っても合わないことがある
      Fluxは驚くほど優秀だが、ほとんどの人は結局、私を含めてChatGPTやGeminiのような慣れたモデルをデフォルトで使うようになる
  • こういう比較はベンチマークのチャートよりずっと 実用的
    Nano Bananaをよく使っているが、外部の建築物や造園の編集には弱い
    歩道や排水溝、色合わせのようなものはほぼ不可能に近い

    • 私はQwen Image Editで昼の写真を夜に変える実験をしているが、ほとんどのモデルは エッジ合わせ を外してしまう
      Nano Bananaも境界処理が不正確で、写真がずれてしまう
  • 2022年に基準を作った立場から見ると、今のデモはSD1・2・3時代とは比べものにならないほど驚異的だ
    いまやモデルがプロンプトと画像を実際に 理解 する時代が来たように思える
    エンジニアリングが進化し続ける中で、創造性が爆発的に拡張される時期だ

  • プロンプトや試行回数を変えて、いちばん気に入った結果だけを見せるやり方は、テストの 客観性 を薄めてしまう
    すべてのモデルに同じプロンプトとシードで5回生成させるような統一条件が必要だ
    たとえばGemini 2.5 Flashは「Girl with Pearl Earring」のテストで過剰な自由度を与えられていた一方、
    OpenAI gpt-image-1はより少ない試行でずっと良い結果を出していたのに失敗扱いされていた

    • 参考までに、gpt-image-1の例は「You Only Move Twice」テスト用のものだった
    • いっそ「最悪の画像」大会を開いた方が、どのモデルがまだマシかをもっとはっきり示せる気がする
  • 私が Replicateブログ に載せた記事では、複数のモデルを直接比較した
    その中では Qwen Image Edit が最も安くて速く、それでいてたいていの編集作業をうまくこなした
    画像編集アプリを作るなら、このモデルを選ぶと思う

  • 比較自体は興味深かったが、最後の キリン画像 は単に体が曲がっただけで、短くはなっていなかった
    それでもGeminiの結果を選ぶことが多かったし、pass/failではなく 10点満点評価 があればよかったと思う

    • 「不自然に曲がったキリン」という表現があまりにも面白かった
      そんな展示が本当にあるなら、ぜひ見に行きたい
  • 最近はAI画像生成をほとんどやっていない
    1年半ほど前はローカルで直接モデルを動かすのが流行っていたが、今は大半が クラウドベース に移っている
    それでも現実の写真編集では、まだどこか 不自然な質感 が残る
    たとえば人の髪が必要以上につやつやしていたり、木がプラスチックのように見えたりする

    • 画像モデルのサイズと計算要求が大きくなりすぎて、個人では セルフホスティング が難しくなった
      Flux Kontextをローカルで動かすことはできるが、量子化モデルで遅く生成するしかなく、効率が悪い
      しかもChatGPTで無料で画像を作れるので、あえてローカルにこだわる理由も減った
      髪の毛のテストではGemini 2.5 Flashだけが色味と質感をきちんと合わせていて、
      Seedream 4は全体のカラー補正が変わってしまう問題があるので好まない
  • Reve もテストに含めてほしいと思う

    • Nano Bananaではキャラクターの視線変更がうまくいかなかったが、Reveは 1回目の試行で完璧な結果 を出した
      キャラクターが持っていた物体を取り除き、視線をカメラに向け、ポーズまで自然に調整していた
      しかも4つの結果すべてが使えるレベルの品質だった
      その後 Reveのモデル紹介記事 を読んで、すぐに登録を決めた
    • おすすめありがとう、あとでテスト一覧に追加してみる予定だ
    • いい情報をありがとう
  • 試み自体はよかったが、「絵の中の塔が右に傾いている」のような 誤ったプロンプト は、むしろモデルをさらに傾けてしまう

    • その文は実際の入力プロンプトではなく、書き出し用の文 だった
      モデルごとにプロンプトを調整しているので、試行回数が違っていたということだ
  • 全体として面白いテストだった
    プロンプトが完璧ではないという指摘もあるが、むしろ 一般ユーザーが入力しそうなレベル なので現実的だ

    • 私はSD 1.5時代からプロンプトを扱ってきたので、モデルごとに必要な プロンプトの変形 をよく分かっている
      FAQに書かれているように、モデルが特定の単語に引きずられないよう、複数バージョンのプロンプトを試している
      たとえば「Turn on the lights」のような命令文は単なる指示ではなく、
      マルチモーダルLLMの理解力 を試すためのプロンプトだ
      こうした文はSDXLのような従来型モデルでは決して通用しない