HomeTags#distributed-training

#distributed-training page 1/1 · 4 total

TODAY 1 entries
NEW paper research 2h ago · arxiv-cs-ai

D-VLA: VLAモデル向け高並列分散非同期強化学習フレームワーク D-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models

AI要約 D-VLAは視覚言語行動(VLA)モデルの強化学習を効率化する分散非同期フレームワーク。ロールアウト収集と学習を分離し高い並列性を実現することで、ロボット制御等の大規模VLA学習のスループットと安定性を向上させると見られる。

EN arXiv:2605.13276v2 Announce Type: replace Abstract: The rapid evolution of Embodied AI has enabled Vision-Language-Action (VLA) models to excel in multimodal perception and task execution. However, ap

arxiv.org
D-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models og
Tue, May 5 1 entries
NEW blog codex 1w ago · openai-news

OpenAI、大規模AI学習網を支えるMRC技術を発表 Unlocking large scale AI training networks with MRC (Multipath Reliable Connection)

AI要約 OpenAIは大規模AI学習向けの新ネットワーク技術MRC(Multipath Reliable Connection)を公開した。複数経路を活用し信頼性とスループットを高め、スーパーコンピュータ規模のGPUクラスタを効率的に接続する仕組みで、学習基盤のスケーラビリティ向上に寄与する。

EN OpenAI introduces MRC (Multipath Reliable Connection), a new supercomputer networking protocol released via OCP to improve resilience and performance in large-scale AI training clusters.

openai.com
Wed, Apr 22 1 entries
NEW blog gemini 3w ago · google-deepmind

Decoupled DiLoCo: 分散AI学習の新たな耐障害手法 Decoupled DiLoCo: A new frontier for resilient, distributed AI training

AI要約 Google DeepMindは分散学習手法DiLoCoを拡張した「Decoupled DiLoCo (DDiLoCo)」を発表。通信と同期を切り離すことで、ノード障害や帯域制約下でも大規模モデル学習を継続可能にし、より柔軟で耐障害性の高い分散AI訓練を実現する。

EN Decoupled DiLoCo: A new frontier for resilient, distributed AI training

deepmind.google
Decoupled DiLoCo: A new frontier for resilient, distributed AI training media
Mon, Mar 9 1 entries
NEW blog local-llm 2mo ago · huggingface-blog

Ulysses Sequence Parallelism: 100万トークン文脈の学習を可能に Ulysses Sequence Parallelism: Training with Million-Token Contexts

AI要約 Hugging Faceがブログで紹介したUlysses Sequence Parallelismは、長文脈LLM学習向けの並列化手法。アテンションヘッドをGPU間で分割することで通信量を抑え、100万トークン級の文脈長での訓練を現実的にする。

EN Ulysses Sequence Parallelism: Training with Million-Token Contexts

huggingface.co