HomeTags#long-context

#long-context page 1/1 · 2 total

YESTERDAY 1 entries
blog local-llm 14h ago · qiita-llm

DeepSeek V4リリース:1.6Tパラメータ・100万トークンコンテキストのオープンソースSOTA DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context win…

AI要約 2026年4月、DeepSeekが最新モデルV4を公開。1.6兆パラメータのMoE構成で100万トークンのコンテキストに対応し、オープンソースながら主要ベンチマークでSOTAを達成したと報じられている。

EN DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context window that reportedly achieves state-of-the-art results on major benchmarks while remaining open source.

qiita.com
DeepSeek V4リリース:1.6Tパラメータ・100万トークンコンテキスト・オープンソースSOTA【2026年4月速報】 og
Fri, Apr 24 1 entries
blog local-llm 1d ago · huggingface-blog

DeepSeek-V4: エージェントが実用できる100万トークン文脈 DeepSeek-V4: a million-token context that agents can actually use

AI要約 DeepSeek-V4は100万トークンの長大な文脈をエージェントが実際に活用できる形で提供することを目指す次世代モデル。長文処理とエージェント用途に最適化されており、ローカルLLMコミュニティで注目される。

EN DeepSeek-V4 is positioned as a next-gen model offering a one-million-token context window that agents can actually leverage in practice, optimized for long-context and agentic workloads.

huggingface.co
DeepSeek-V4: a million-token context that agents can actually use og