HomeLocal LLMHugging FaceとKerasHubの新統合を発表

Hugging FaceとKerasHubの新統合を発表 Announcing New Hugging Face and KerasHub integration

元記事を読む 鮮度 OK
AI 3 行サマリ
  • Hugging FaceとKerasがKerasHubで統合され、Hubに公開されたLlamaやGemma、Mistral等のTransformers形式モデルをKerasHubから直接ロード・微調整・再公開できるようになった。
  • JAX・TensorFlow・PyTorchの全バックエンドに対応する。
English summary
  • Announcing New Hugging Face and KerasHub integration

Hugging FaceとGoogleのKerasチームは、KerasHubライブラリにHugging Face Hubとのネイティブ統合を追加したと発表した。これによりHub上に公開されているTransformers形式のチェックポイントを、Kerasユーザーがそのまま読み込み、学習・微調整し、再びHubへ共有できるようになる。

中核となるのはKerasHubの`from_preset()`メソッドで、`hf://`プレフィックスを付けたモデルIDを渡すだけで、Llama 3、Gemma、Mistral、Qwen、PaliGemmaといった主要アーキテクチャの重みを取得できる。読み込まれたモデルは内部でKerasのレイヤー実装に変換されるため、`fit()`によるトレーニングや量子化、`generate()`での推論まで、Keras標準のワークフローで扱える。

特筆すべき点は、Kerasが採用するマルチバックエンド設計との親和性である。KerasHubで読み込んだモデルはJAX、TensorFlow、PyTorchのいずれのバックエンドでも実行でき、たとえばTPU上ではJAXを選び、既存のPyTorchパイプラインに組み込む際にはPyTorchを選ぶといった切り替えがコード変更なしで可能となる。微調整後のモデルは`save_to_preset()`と`keras_hub.upload_preset()`を用いてHubへ書き戻せ、Transformersユーザーとも資産を共有できる。

Hugging FaceとKerasがKerasHubで統合され、Hubに公開されたLlamaやGemma、Mistral等のTransformers形式モデルをKerasHubから直接ロード・微調整・再公開できるようになった。
🏠 Local LLM · 本記事のポイント

背景として、近年は単一フレームワークに閉じない相互運用性が重視されており、Hugging Face Hubは事実上のモデル流通ハブとなっている。KerasはTensorFlow専属だった時代を経て、Keras 3でJAX/PyTorch対応を取り戻し、Google内部のGemma配布基盤としても機能している。今回の統合は、PyTorch中心のTransformersエコシステムとJAX/TPU志向のKerasコミュニティを橋渡しするものと位置付けられ、研究者にとってはバックエンド選択の自由度が、実務者にとっては学習済み資産の再利用性が高まると見られる。

Hugging Face and Google's Keras team have announced a native integration between KerasHub and the Hugging Face Hub, allowing Keras practitioners to load, fine-tune and re-share Transformers-format checkpoints hosted on the Hub without leaving their familiar Keras workflow.

The entry point is KerasHub's `from_preset()` method. By passing a model identifier prefixed with `hf://`, users can pull weights for popular architectures such as Llama 3, Gemma, Mistral, Qwen and PaliGemma directly from the Hub. Under the hood the checkpoint is mapped onto KerasHub's own layer implementations, so once loaded the model behaves like any other Keras model: it can be trained with `fit()`, quantized, evaluated, or used for text generation via `generate()`.

A defining feature of the integration is its alignment with Keras 3's multi-backend design. Because KerasHub models run on JAX, TensorFlow or PyTorch interchangeably, the same checkpoint can be fine-tuned on TPUs through JAX, served inside an existing PyTorch pipeline, or deployed in a TensorFlow Serving stack — all without changes to user code. After fine-tuning, models can be exported with `save_to_preset()` and pushed back to the Hub via `keras_hub.upload_preset()`, where they remain accessible to both Keras and Transformers users.

The move reflects a broader trend toward framework-agnostic interoperability. The Hugging Face Hub has become the de facto distribution layer for open-weight models, hosting hundreds of thousands of checkpoints originally produced by PyTorch-centric pipelines. Keras, meanwhile, has reinvented itself with Keras 3 by reintroducing first-class JAX and PyTorch support after years of being tied to TensorFlow, and it underpins Google's own Gemma release infrastructure. Bridging the two ecosystems lowers the friction of moving between them and arguably strengthens both: Keras gains immediate access to a much larger model catalog, while Hub authors reach an audience that favors JAX and TPU-based training.

For researchers, the practical upshot is greater freedom to pick a backend based on hardware availability or experiment requirements rather than checkpoint format. For applied teams, it likely means easier reuse of community-trained weights inside production stacks that may already standardize on Keras for its higher-level APIs. It is also worth noting that similar cross-framework efforts — such as safetensors adoption, the GGUF format in the llama.cpp world, and ONNX conversions — have shown that interoperability tends to accelerate model adoption. KerasHub's native Hub support fits squarely within that pattern, and could plausibly nudge more JAX-trained artifacts back into the broader open-source ecosystem.

  • SourceHugging Face BlogT1
  • Source Avg ★ 1.7
  • Typeブログ
  • Importance ★ 通常 (top 51% in Local LLM)
  • Half-life ⏱️ 短命 (ニュース)
  • LangEN
  • Collected2026/05/16 09:39

本ページの本文・要約は AI による自動生成です。正確性は元記事 (huggingface.co) をご確認ください。

🏠 Local LLM の他の記事 もっと見る →

URL をコピーしました