HomeGeminiMedGemma: 医療AI開発向けGoogleの最強オープンモデル
MedGemma: Our most capable open models for health AI development

MedGemma: 医療AI開発向けGoogleの最強オープンモデル MedGemma: Our most capable open models for health AI development

元記事を読む 鮮度 OK
AI 3 行サマリ
  • Googleは医療画像とテキストを扱えるオープンモデル群MedGemmaを発表した。
  • Gemma 3をベースに4Bと27BのマルチモーダルモデルおよびMedSigLIP画像エンコーダを提供し、医療AI開発者がローカル環境で微調整・運用できる。
English summary
  • We’re announcing new multimodal models in the MedGemma collection, our most capable open models for health AI development.

Google DeepMindGoogle Researchは、医療AI開発者向けに設計されたオープンモデル群「MedGemma」を発表した。Gemma 3をベースに、医療画像と臨床テキストの双方を処理できる点が特徴で、開発者が自前の環境で微調整・展開できる柔軟性を持つ。

ラインナップは大きく3つ。マルチモーダルな4Bおよび27Bモデルと、画像エンコーダ単体の「MedSigLIP」(約4億パラメータ)である。MedSigLIPはSigLIPアーキテクチャを胸部X線、皮膚科、眼底、組織病理画像などでチューニングしたもので、ゼロショット分類や画像検索に利用できる。マルチモーダル版は放射線レポート生成、医療画像に関する視覚的質問応答、臨床推論などを想定する。

Googleによると、MedGemma 27Bは MedQA で87.7%を記録し、同規模のオープンモデルを上回る一方、推論コストはDeepSeek R1の約10分の1程度に収まるとされる。4B版もモバイルや院内サーバーなど制約のある環境での運用に適するという。重要な点として、これらは完全にオープン重みで配布されており、HIPAA対応や院内ネットワークでの完結運用、再現性の確保といった医療特有の要件に応えやすい。

Gemma 3をベースに4Bと27BのマルチモーダルモデルおよびMedSigLIP画像エンコーダを提供し、医療AI開発者がローカル環境で微調整・運用できる。
✨ Gemini · 本記事のポイント

背景として、医療分野ではプライバシー規制や施設ごとのデータ分布差から、APIベースのクローズドモデルでは扱いにくいユースケースが多い。Med-PaLMやMicrosoftのLLaVA-Med、Metaがオープンソース化したDINOv2を医用に転用する研究など、専用基盤モデルの競争は激化している。MedGemmaは「すぐに使えるオープン基盤」を提示することで、スタートアップや病院研究室の参入障壁を下げる狙いがあると見られる。

なお、Google自身も強調しているように、これらは臨床用途にそのまま使えるものではなく、各機関での検証・微調整・規制対応が前提となる。早期採用例としてDeepHealthの胸部X線トリアージや台湾のChang Gung Memorial Hospitalによる中国語医療文献での活用が紹介されており、今後ドメイン特化型エコシステムの形成が進む可能性がある。

Google DeepMind and Google Research have introduced MedGemma, a family of open models tailored for medical AI development. Built on top of Gemma 3, the collection is designed to handle both medical imagery and clinical text, and crucially ships with open weights so developers can fine-tune and deploy it inside their own infrastructure.

The release includes three main components: multimodal 4B and 27B variants, and a standalone image encoder called MedSigLIP at roughly 400M parameters. MedSigLIP is a SigLIP-derived encoder tuned on chest X-rays, dermatology photos, fundus images, and histopathology slides, suitable for zero-shot classification and similarity search. The multimodal models target tasks such as radiology report generation, visual question answering on medical images, and broader clinical reasoning.

Google reports that MedGemma 27B reaches 87.7% on MedQA, competitive with much larger systems while running at roughly a tenth of the inference cost of DeepSeek R1. The 4B variant is positioned for resource-constrained settings such as on-device or on-premise hospital servers. Because the weights are fully open, hospitals and startups can run the models behind their own firewalls, an important factor for HIPAA compliance, reproducibility, and handling protected health information that cannot be sent to third-party APIs.

The broader context matters here. Healthcare has been a difficult fit for closed, API-only frontier models: data is siloed, regulated, and unevenly distributed across institutions and modalities. Competing efforts include Google's earlier Med-PaLM line, Microsoft's LLaVA-Med, and a growing body of work adapting general-purpose open backbones such as Meta's DINOv2 for pathology and radiology. MedGemma's pitch is essentially a ready-made open baseline that lowers the barrier to entry for clinical research labs and health-tech startups, who can then specialise the models with their own datasets.

Google is careful to note that MedGemma is not a clinical-grade product out of the box. Outputs require validation, fine-tuning, and appropriate regulatory clearance before any patient-facing use. Early adopters cited in the announcement include DeepHealth, which is exploring chest X-ray triage workflows, and Taiwan's Chang Gung Memorial Hospital, which has tested the models on Chinese-language medical literature. Other partners are reportedly evaluating the models for traditional Chinese medical text and histopathology subtyping.

Looking ahead, MedGemma's combination of a vision encoder plus paired generative models could encourage a more modular ecosystem, where institutions mix MedSigLIP-based retrieval with locally fine-tuned generation. Whether it becomes the default open foundation for medical AI will likely depend on how quickly the community produces robust evaluation benchmarks and post-training recipes — areas where the field still lags behind general-purpose LLM tooling.

  • SourceGoogle DeepMind BlogT1
  • Source Avg ★ 2.0
  • Typeブログ
  • Importance ★ 通常 (top 89% in Gemini)
  • Half-life ⏱️ 短命 (ニュース)
  • LangEN
  • Collected2026/05/16 21:00
元記事を読む deepmind.google

本ページの本文・要約は AI による自動生成です。正確性は元記事 (deepmind.google) をご確認ください。

Gemini の他の記事 もっと見る →

URL をコピーしました