HomeTags#deepseek

#deepseek page 1/1 · 5 total

YESTERDAY 3 entries
blog local-llm 13h ago · qiita-llm

DeepSeek V4 API移行完全ガイド【2026年版】7月24日廃止対応 A migration guide for DeepSeek V4 API ahead of the V3 deprecation on July 24, 2026, coveri…

AI要約 2026年7月24日のDeepSeek V3 API廃止に向け、V4への移行手順を解説するガイド。エンドポイント変更、認証方式の更新、互換性のあるコード書き換え例など、開発者が事前に対応すべき項目をまとめている。

EN A migration guide for DeepSeek V4 API ahead of the V3 deprecation on July 24, 2026, covering endpoint changes, updated authentication, and code rewrite examples developers should prepare in advance.

qiita.com
DeepSeek V4 API 移行完全ガイド【2026年版】— 7月24日廃止前に対応すべきこと og
blog local-llm 14h ago · qiita-llm

DeepSeek V4リリース:1.6Tパラメータ・100万トークンコンテキストのオープンソースSOTA DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context win…

AI要約 2026年4月、DeepSeekが最新モデルV4を公開。1.6兆パラメータのMoE構成で100万トークンのコンテキストに対応し、オープンソースながら主要ベンチマークでSOTAを達成したと報じられている。

EN DeepSeek released V4 in April 2026, a 1.6T-parameter MoE model with a 1M-token context window that reportedly achieves state-of-the-art results on major benchmarks while remaining open source.

qiita.com
DeepSeek V4リリース:1.6Tパラメータ・100万トークンコンテキスト・オープンソースSOTA【2026年4月速報】 og
blog local-llm 23h ago · zenn-llm

疑似量子コンピュータ(QUBO)でLLMを高速化できるか RTX 4090とDeepSeek-V2-Liteで検証 An experimental article testing whether QUBO-based pseudo-quantum computing can accelerate…

AI要約 RTX 4090上でDeepSeek-V2-Liteを用い、QUBO形式の疑似量子計算でLLMの推論を高速化できるかを検証した実験記事。Mixture of Expertsのルーティング部分などにQUBOを適用し、従来手法との比較結果を報告している。

EN An experimental article testing whether QUBO-based pseudo-quantum computing can accelerate LLM inference, using DeepSeek-V2-Lite on an RTX 4090 GPU and applying QUBO to MoE routing, comparing results against conventional methods.

zenn.dev
疑似量子コンピュータ(QUBO)で LLM を速くできるか? RTX 4090 で DeepSeek-V2-Lite を使って 調べてみた og
Fri, Apr 24 2 entries
blog research 1d ago · simonw-blog

DeepSeek V4、フロンティア級の性能を低価格で実現 DeepSeek V4 - almost on the frontier, a fraction of the price

AI要約 DeepSeekが新モデルV4を公開し、最先端モデルにわずかに及ばないものの、はるかに低い価格で同等水準の性能を提供する。コスト効率の高さが注目され、競合する大手LLMに対する有力な選択肢として位置付けられている。

EN DeepSeek released V4, a new model that approaches frontier-level performance at a fraction of the price of leading LLMs, positioning it as a highly cost-efficient alternative to top-tier competitors.

simonwillison.net
DeepSeek V4 - almost on the frontier, a fraction of the price og
blog local-llm 1d ago · huggingface-blog

DeepSeek-V4: エージェントが実用できる100万トークン文脈 DeepSeek-V4: a million-token context that agents can actually use

AI要約 DeepSeek-V4は100万トークンの長大な文脈をエージェントが実際に活用できる形で提供することを目指す次世代モデル。長文処理とエージェント用途に最適化されており、ローカルLLMコミュニティで注目される。

EN DeepSeek-V4 is positioned as a next-gen model offering a one-million-token context window that agents can actually leverage in practice, optimized for long-context and agentic workloads.

huggingface.co
DeepSeek-V4: a million-token context that agents can actually use og