Gemini アプリに AI 画像検証機能を導入、SynthID で来歴確認 How we’re bringing AI image verification to the Gemini app
- Google DeepMind は Gemini アプリに AI 生成画像を判別する機能を追加した。
- 透かし技術 SynthID を活用し、ユーザーが画像をアップロードすると Google の AI で生成・編集されたかを確認できる。
- 誤情報対策と来歴透明化を狙う取り組み。
English summary
- How we’re bringing AI image verification to the Gemini app
Google DeepMind は、Gemini アプリ上で AI 生成画像を検証できる新機能を発表した。生成 AI による画像が急増し、真偽の見分けが困難になる中、コンテンツの来歴 (provenance) を一般ユーザーが直接確認できる仕組みを提供する狙いがある。
この機能の中核を担うのが、DeepMind が開発した電子透かし技術「SynthID」である。SynthID は画像のピクセルに人間の目には知覚できないパターンを埋め込み、加工や圧縮を経ても検出可能な耐性を持つとされる。ユーザーが Gemini アプリに画像をアップロードして質問すると、その画像が Google の生成 AI (Imagen や Nano Banana など) によって作成・編集されたかどうかを Gemini が判定し、回答に反映する。今後は音声や動画など他のモダリティにも拡張される予定とされる。
背景には、ディープフェイクや AI 生成コンテンツに関する社会的懸念の高まりがある。2024 年以降、各国の選挙や著名人を巡る合成画像問題が続出し、来歴情報の標準化を求める声が強まった。業界では Adobe や Microsoft などが主導する C2PA (Coalition for Content Provenance and Authenticity) によるメタデータ署名方式が広がっており、SynthID はこれと補完的な関係に位置付けられる。メタデータは剥がされやすい一方、透かしは画像本体に埋め込まれるため除去耐性に優位性があると見られる。
透かし技術 SynthID を活用し、ユーザーが画像をアップロードすると Google の AI で生成・編集されたかを確認できる。
ただし、現状で検出できるのは主に Google 製ツールで生成された画像に限られる点は留意が必要である。OpenAI の DALL·E や Midjourney、Stable Diffusion など他社モデルが出力した画像については、各社が独自の来歴技術を採用しており、横断的な検証には業界全体での相互運用が課題となる。DeepMind は SynthID の一部技術をオープンソース化しており、こうした標準化の動きを後押しする可能性がある。
Google DeepMind has announced a new feature in the Gemini app that lets users verify whether an image was generated or edited by Google's AI. As synthetic media proliferates and visual misinformation becomes harder to spot, the company is positioning the tool as a consumer-facing entry point into content provenance.
At the heart of the feature is SynthID, DeepMind's watermarking technology. SynthID embeds an imperceptible signal directly into the pixels of an image, designed to survive common transformations such as cropping, compression, and color adjustments. When a user uploads an image to Gemini and asks about its origin, the model checks for the SynthID signal and indicates whether the image was created or modified by Google's generative tools, including Imagen and the recently popular Nano Banana image model. DeepMind has signaled that the verification capability will expand to audio and video over time.
The rollout arrives amid mounting concern over deepfakes and AI-manipulated media. Recent election cycles around the world have surfaced high-profile cases of synthetic imagery, prompting regulators and platforms to push for clearer provenance signals. The industry is converging on multiple, complementary approaches: the C2PA standard, backed by Adobe, Microsoft, and major camera makers, attaches cryptographically signed metadata describing how a file was produced, while watermarking schemes like SynthID embed the signal in the content itself. Metadata can be stripped when files are re-uploaded or screenshotted, so pixel-level watermarks are seen as a more durable, if imperfect, layer of defense.
A notable limitation is scope. Gemini's verification primarily detects content produced by Google's own models, since SynthID needs to have been applied at generation time. Images from OpenAI's DALL·E, Midjourney, Black Forest Labs' Flux, or open Stable Diffusion variants use different provenance approaches—or none at all—so a truly cross-vendor verification experience would require broader interoperability. DeepMind has open-sourced parts of SynthID's text watermarking work, and similar moves on image and video components could help, though no single watermark is considered fully tamper-proof against a determined adversary.
For everyday users, the practical takeaway is modest but meaningful: a quick way to ask Gemini whether a suspicious image came from Google's AI stack, without needing specialized forensic tools. For the broader ecosystem, the launch underscores that provenance is shifting from a back-end research topic to a user-visible product feature, and competitors are likely to follow with their own consumer-grade detection surfaces.
本ページの本文・要約は AI による自動生成です。正確性は元記事 (deepmind.google) をご確認ください。