HomeTags#moe

#moe page 1/1 · 3 total

Sat, May 9 1 entries
NEW blog local-llm 1w ago · huggingface-blog

EMO: 創発的モジュラリティのためのMoE事前学習手法 EMO: Pretraining mixture of experts for emergent modularity

AI要約 AllenAIが提案するEMOは、Mixture of Expertsモデルを事前学習する新手法で、創発的なモジュラリティを引き出すことを目的とする。専門家がタスクごとに自然に分化し、効率と解釈可能性を高める可能性がある。

EN EMO: Pretraining mixture of experts for emergent modularity

huggingface.co
Fri, Apr 24 1 entries
🔥 HOT NEW blog local-llm 3w ago · huggingface-blog

DeepSeek-V4登場、エージェントが実用可能な100万トークン文脈を実現 DeepSeek-V4: a million-token context that agents can actually use

AI要約 DeepSeek-V4は最大100万トークンの長文コンテキストを扱えるオープンモデルとして公開された。単なる長さの拡張に留まらず、エージェント用途で実際に有効活用できる検索・推論性能を狙った設計が特徴とされる。

EN DeepSeek-V4: a million-token context that agents can actually use

huggingface.co
Wed, Mar 18 1 entries
NEW blog local-llm 1mo ago · huggingface-blog

Hugging Faceが示す2026年春のオープンソースAI動向 State of Open Source on Hugging Face: Spring 2026

AI要約 Hugging Faceが2026年春時点のオープンソースAIの状況をまとめた。中国勢のLLM主導、マルチモーダルや動画生成モデルの台頭、推論・量子化エコシステムの成熟が示され、コミュニティ規模も急拡大している。

EN State of Open Source on Hugging Face: Spring 2026

huggingface.co