HomeTags#foundation-models

#foundation-models page 1/1 · 3 total

TODAY 3 entries
NEW paper research 4h ago · arxiv-cs-ai

フォーカスセッション:マルチモーダル基盤モデル高速化のためのハード・ソフト技術 Focus Session: Hardware and Software Techniques for Accelerating Multimodal Foundation Models

AI要約 本論文はマルチモーダル基盤モデルの推論・学習を高速化するためのハードウェアおよびソフトウェア技術を扱うフォーカスセッションの概要を示す。効率化手法やアクセラレータ設計を整理し、今後の研究方向を議論する。

EN This focus session paper surveys hardware and software techniques for accelerating multimodal foundation models, covering efficient inference and training methods, accelerator design, and future research directions.

arxiv.org
Focus Session: Hardware and Software Techniques for Accelerating Multimodal Foundation Models og
NEW paper research 4h ago · arxiv-cs-ai

Mochi: メタ学習による効率的グラフ基盤モデルの事前学習と推論の整合化 Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning

AI要約 グラフ基盤モデルにおいて、事前学習と推論の不整合を解消するためメタ学習を活用した手法Mochiを提案。タスク適応性を高めつつ計算効率を改善し、複数ベンチマークで既存手法を上回る性能を示した。

EN Mochi proposes a meta-learning approach to align pre-training and inference for graph foundation models, improving task adaptability and computational efficiency while outperforming existing methods on multiple benchmarks.

arxiv.org
Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning og
NEW paper research 4h ago · arxiv-cs-lg

Mochi: メタ学習による効率的グラフ基盤モデルの事前学習と推論の整合化 Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning

AI要約 グラフ基盤モデルにおいて、事前学習と推論の不整合を解消するためメタ学習を活用した手法Mochiを提案。タスク適応性を高めつつ計算効率を改善し、複数ベンチマークで既存手法を上回る性能を示した。

EN Mochi proposes a meta-learning approach to align pre-training and inference for graph foundation models, improving task adaptability and computational efficiency while outperforming existing methods on multiple benchmarks.

arxiv.org
Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning og