DeepSeek V4リリース:1.6Tパラメータ・100万トークンコンテキストのオープンソースSOTA DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context win…
AI要約 2026年4月、DeepSeekが最新モデルV4を公開。1.6兆パラメータのMoE構成で100万トークンのコンテキストに対応し、オープンソースながら主要ベンチマークでSOTAを達成したと報じられている。
EN DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context window that reportedly achieves state-of-the-art results on major benchmarks while remaining open source.
qiita.com →
og