LIVE · 05/07
tech-news任天堂、Switch 2向け新作「Star Fox」を発表Nintendo announces a new Star Fox for the Switch 2[the-verge]local-llmRELv0.30.0-rc3v0.30.0-rc3[ollama-releases]local-llmRELv0.30.0-rc2v0.30.0-rc2[ollama-releases]local-llmRELv0.30.0-rc1v0.30.0-rc1[ollama-releases]local-llmRELv0.30.0-rc0v0.30.0-rc0[ollama-releases]copilotRELGitHub Copilot CLIのEnterprise管理プラグインがpublic preview開始Enterprise-managed plugins in GitHub Copilot CLI are now in public preview[github-changelog]copilotRELGitHub Copilot in Visual Studio Code、4月リリースGitHub Copilot in Visual Studio Code, April releases[github-changelog]copilotRELSearch and filter bar for repository security advisoriesSearch and filter bar for repository security advisories[github-changelog]local-llmLLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開(no English title)[qiita-llm]tech-newsSpaceX、世界で最も成功したロケットFalcon 9から移行開始SpaceX is starting to move on from the world's most successful rocket[ars-technica]tech-newsAnthropic、SpaceXとの契約でClaude Codeの利用上限を引き上げAnthropic raises Claude Code usage limits, credits new deal with SpaceX[ars-technica]tech-newsTSMC、AIチップ需要急増で風力発電に注力、台湾はエネルギー危機に直面TSMC taps wind power as AI chip demand soars, Taiwan feels energy crunch[ars-technica]tech-news裁判所、ISPが反対したFCCの差別禁止規則を無効化Court strikes down FCC anti-discrimination rule opposed by Internet providers[ars-technica]tech-newsMythosに動揺、トランプが急にAI安全性テストを支持Spooked by Mythos, Trump suddenly realized AI safety testing might be good[ars-technica]tech-newsMicrosoftのAIデータセンター拡大、クリーン電力目標と衝突Microsoft’s AI data center push is colliding with its clean power goals[techcrunch]tech-newsRobinhoodのベンチャーファンド新規上場、個人投資家15万人超が参加とCEORobinhood’s venture fund IPO attracted 150,000+ retail investors, CEO says[techcrunch]tech-newsGreg Brockmanが語るElon MuskのOpenAI離脱の経緯How Elon Musk left OpenAI, according to Greg Brockman[techcrunch]tech-news米司法省、ランサムウェア集団がロシア政府DBに侵入と発表DOJ says ransomware gang tapped into Russian government databases[techcrunch]tech-newsAI評価スタートアップBraintrustが侵害を確認、全顧客に鍵更新を要請AI evaluation startup Braintrust confirms breach, tells every customer to rotate sensitive keys[techcrunch]tech-newsMira Murati、法廷でSam Altmanの言葉を信用できなかったと証言Mira Murati tells the court that she couldn’t trust Sam Altman’s words[the-verge]tech-news報道: SpaceXのIPOはMuskに無制限の権限を与え投資家訴訟を禁止Report: SpaceX IPO gives Musk unchecked power and forbids investor lawsuits[ars-technica]tech-newsGoogle DeepMind、EVE OnlineとAIモデル検証で提携Google DeepMind partners with EVE Online for AI model testing[ars-technica]tech-newsNative Instruments、Komplete 26で新シンセや実験的ピアノ音源を追加Native Instruments Komplete 26 adds weird new synths and experimental piano sounds[the-verge]tech-newsFDAのワクチン有益性示す研究、トランプ政権が検閲FDA vaccine studies censored by Trump admin after finding benefits of shots[ars-technica]
Today 143
Total 500
Major 17
Sources 40
Updated just now
Daily Summary

今日の更新

Today's Updates

Today 143 ▲ 15%
Yesterday 124
7-day 373
Last 7 days
15
18
10
15
48
124
143
05/01 05/02 05/03 05/04 05/05 05/06 05/07
主要な更新 Top stories 05/07 · 10 件
  1. 01 tech-news 任天堂、Switch 2向け新作「Star Fox」を発表 Nintendo announces a new Star Fox for the Switch 2 任天堂はSwitch 2向けの新作『Star Fox』を発表した。シリーズ最新作として、同社の人気宇宙シューティングシリーズが次世代機で復活することになる。詳細な発売日やゲームプレイ内容は今後明らかにされる見込み。 Nintendo has announced a new Star Fox title for the upcoming Switch 2 console, marking the return of the iconic space shooter franchise on the next-generation hardware. Further details on release date and gameplay are expected later. [the-verge]
  2. 02 local-llm REL v0.30.0-rc3 v0.30.0-rc3 ci: fix windows rocm build [ollama-releases]
  3. 03 local-llm REL v0.30.0-rc2 v0.30.0-rc2 ci: fix windows llama-server build [ollama-releases]
  4. 04 local-llm REL v0.30.0-rc1 v0.30.0-rc1 ci: fix windows MLX build [ollama-releases]
  5. 05 local-llm REL v0.30.0-rc0 v0.30.0-rc0 refine implementation [ollama-releases]
  6. 06 copilot REL GitHub Copilot CLIのEnterprise管理プラグインがpublic preview開始 Enterprise-managed plugins in GitHub Copilot CLI are now in public preview GitHub Copilot CLIにおけるEnterprise管理プラグイン機能がpublic previewとして公開されました。Enterprise管理者は組織全体で利用可能なプラグインを集中管理でき、開発者のCLI環境でガバナンスとセキュリティを確保できます。 Enterprise-managed plugins for GitHub Copilot CLI are now available in public preview, allowing enterprise administrators to centrally manage and distribute approved plugins across their organization for improved governance and security. [github-changelog]
  7. 07 copilot REL GitHub Copilot in Visual Studio Code、4月リリース GitHub Copilot in Visual Studio Code, April releases Visual Studio CodeのGitHub Copilotの2026年4月リリースが公開されました。エージェント機能やチャット体験、開発者向けツールの改善など複数のアップデートが含まれています。 The April 2026 release of GitHub Copilot in Visual Studio Code introduces multiple updates, including improvements to agent capabilities, chat experience, and developer tooling. [github-changelog]
  8. 08 copilot REL Search and filter bar for repository security advisories Search and filter bar for repository security advisories You can now search and filter security advisories directly from your repository’s Security tab. Use the new search bar and filters at the top of the advisory list to find… The post Search and filter b [github-changelog]
  9. 09 local-llm LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開 (no English title) LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開 現代のLarge Language Modelは、6つの機能役割を必ず実装する。1つでも、その機能等価物まで含めて欠ければ、それはもうLLMではない。これ [qiita-llm]
  10. 10 tech-news SpaceX、世界で最も成功したロケットFalcon 9から移行開始 SpaceX is starting to move on from the world's most successful rocket SpaceXは打ち上げ実績で他を圧倒するFalcon 9ロケットからの移行を始めた。次世代機Starshipの開発に注力し、運用の主力を段階的に切り替えていく方針で、宇宙打ち上げ市場の構図に大きな変化をもたらす可能性がある。 SpaceX is beginning to transition away from Falcon 9, the most successful rocket in history, as it shifts focus to its next-generation Starship vehicle. The move signals a major shift in the global launch market. [ars-technica]
🔥 Today's Top 3 importance × recency
  1. 任天堂、Switch 2向け新作「Star Fox」を発表 Nintendo announces a new Star Fox for the Switch 2 the-verge 7h ago
  2. v1.1.5-pre v1.1.5-pre zed-releases 1d ago
  3. LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開 LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開 qiita-llm 2h ago

Timeline 500 total · page 1/17

TODAY 30 entries
NEW paper research 2h ago · arxiv-cs-ai

LCM: ロスレスなコンテキスト管理手法 LCM: Lossless Context Management

AI要約 本論文はLLM向けの新しいコンテキスト管理手法「LCM(Lossless Context Management)」を提案する。長文コンテキストを情報損失なく効率的に扱うことを目指し、推論性能とメモリ効率の両立を図る。

EN This paper proposes LCM (Lossless Context Management), a new approach for handling long contexts in LLMs without information loss, aiming to balance inference performance and memory efficiency.

arxiv.org
LCM: Lossless Context Management og
NEW paper research 2h ago · arxiv-cs-ai

正則化中心化エンファティックTD学習の提案 Regularized Centered Emphatic Temporal Difference Learning

AI要約 強化学習における方策オフ評価の安定化を目的に、エンファティックTD学習を中心化と正則化により改良した手法を提案。分散の低減と収束性の向上を理論的・実験的に示し、関数近似下での学習を安定化させる。

EN This paper proposes a regularized and centered variant of Emphatic Temporal Difference learning for off-policy evaluation in reinforcement learning, aiming to reduce variance and improve convergence with function approximation through theoretical and empirical analysis.

arxiv.org
Regularized Centered Emphatic Temporal Difference Learning og
NEW paper research 2h ago · arxiv-cs-ai

Pro²Assist: マルチモーダル一人称視点による長期手順タスクの能動支援 Pro$^2$Assist: Continuous Step-Aware Proactive Assistance with Multimodal Egocentric Perception for Long-Horizon Procedural Tasks

AI要約 長期的な手順タスクにおいて、一人称視点のマルチモーダル知覚を用い、ステップを継続的に認識して能動的に支援するフレームワークPro²Assistを提案。ユーザの作業状況に応じた適時な助言を実現する。

EN Pro²Assist is a framework for continuous, step-aware proactive assistance in long-horizon procedural tasks, leveraging multimodal egocentric perception to deliver timely guidance based on the user's ongoing activity.

arxiv.org
Pro$^2$Assist: Continuous Step-Aware Proactive Assistance with Multimodal Egocentric Perception for Long-Horizon Procedural Tasks og
NEW paper research 2h ago · arxiv-cs-ai

時間推論はボトルネックではない:ニューロシンボリックQAのための確率的不整合フレームワーク Temporal Reasoning Is Not the Bottleneck: A Probabilistic Inconsistency Framework for Neuro-Symbolic QA

AI要約 本論文は、ニューロシンボリックQAにおける誤りの主因が時間推論ではなく確率的不整合であると指摘。LLMの出力の整合性を評価する新たな枠組みを提案し、時間QAタスクで従来の前提を覆す実証結果を示す。

EN This paper argues that the main bottleneck in neuro-symbolic QA is not temporal reasoning but probabilistic inconsistency. It introduces a framework to evaluate LLM output consistency, challenging prior assumptions through experiments on temporal QA tasks.

arxiv.org
Temporal Reasoning Is Not the Bottleneck: A Probabilistic Inconsistency Framework for Neuro-Symbolic QA og
NEW paper research 2h ago · arxiv-cs-ai

投機的生成のための並列プレフィックス検証 Parallel Prefix Verification for Speculative Generation

AI要約 投機的デコーディングにおいて、ドラフトトークンのプレフィックスを並列に検証する手法を提案。従来の逐次検証に比べ、検証ステップを高速化し、大規模言語モデルの推論レイテンシを削減することを目指す研究である。

EN This paper proposes a parallel prefix verification method for speculative decoding, accelerating the verification step of draft tokens to reduce inference latency in large language models compared to sequential verification.

arxiv.org
Parallel Prefix Verification for Speculative Generation og
NEW paper research 2h ago · arxiv-cs-ai

Agent Island: マルチエージェントゲームによる飽和・汚染耐性ベンチマーク Agent Island: A Saturation- and Contamination-Resistant Benchmark from Multiagent Games

AI要約 マルチエージェントゲームを用いた、飽和や汚染に耐性を持つLLM評価ベンチマーク「Agent Island」を提案する研究。エージェント同士のゲーム形式により、従来の静的ベンチマークの限界を克服する新しい評価枠組みを示している。

EN This paper introduces Agent Island, a benchmark for evaluating LLMs through multiagent games, designed to resist saturation and data contamination issues that plague conventional static benchmarks.

arxiv.org
Agent Island: A Saturation- and Contamination-Resistant Benchmark from Multiagent Games og
NEW paper research 2h ago · arxiv-cs-ai

Transformerにおける暗黙的演繹推論のスケーリング特性 The Scaling Properties of Implicit Deductive Reasoning in Transformers

AI要約 本論文は、Transformerモデルが暗黙的な演繹推論をどの程度学習できるかを、モデルサイズや推論ステップ数などに対するスケーリング特性として分析した研究である。多段推論の能力がパラメータ数や深さとどう関係するかを実験的に検証している。

EN This paper investigates the scaling properties of implicit deductive reasoning in Transformer models, examining how multi-step reasoning capability relates to model size, depth, and inference complexity through systematic empirical analysis.

arxiv.org
The Scaling Properties of Implicit Deductive Reasoning in Transformers og
NEW paper research 2h ago · arxiv-cs-ai

文脈が逆効果に:マルチエージェント設計探索における知識転移のクロスオーバー効果 When Context Hurts: The Crossover Effect of Knowledge Transfer on Multi-Agent Design Exploration

AI要約 本研究はマルチエージェント設計探索における知識転移の効果を分析し、文脈情報の共有が必ずしも性能向上に寄与せず、逆に探索を阻害するクロスオーバー効果が生じることを示す。エージェント間の知識共有のタイミングと量が成果を左右する。

EN This paper investigates knowledge transfer in multi-agent design exploration, revealing a crossover effect where shared context can hinder rather than help performance. The timing and quantity of inter-agent knowledge sharing critically determine outcomes.

arxiv.org
When Context Hurts: The Crossover Effect of Knowledge Transfer on Multi-Agent Design Exploration og
NEW paper research 2h ago · arxiv-cs-ai

思考モードはLLMの道徳判断をどう変えるか?5つのフロンティアモデルで比較 How Does Thinking Mode Change LLM Moral Judgments? A Controlled Instant-vs-Thinking Comparison Across Five Frontier Models

AI要約 5つの最先端LLMにおいて、即答モードと思考モードでの道徳的判断の違いを統制比較した研究。思考モードを有効にすることで、モデルの倫理的推論や判断傾向がどのように変化するかを定量的に分析している。

EN A controlled study comparing instant-response and thinking modes across five frontier LLMs to evaluate how extended reasoning affects moral judgments, quantifying shifts in ethical reasoning patterns.

arxiv.org
How Does Thinking Mode Change LLM Moral Judgments? A Controlled Instant-vs-Thinking Comparison Across Five Frontier Models og
NEW paper research 2h ago · arxiv-cs-ai

SensingAgents: IMU活動認識のためのマルチエージェント協調フレームワーク SensingAgents: A Multi-Agent Collaborative Framework for Robust IMU Activity Recognition

AI要約 IMUセンサーによる人間活動認識の頑健性向上を目的に、複数のエージェントが協調して推論する新フレームワーク「SensingAgents」を提案。各エージェントが異なる視点で信号を解析し、議論を通じて最終判断を導くことで、ノイズや個人差に強い認識性能を実現する。

EN SensingAgents proposes a multi-agent collaborative framework for robust IMU-based human activity recognition, where multiple agents analyze signals from different perspectives and reach consensus through discussion to handle noise and individual variability.

arxiv.org
SensingAgents: A Multi-Agent Collaborative Framework for Robust IMU Activity Recognition og
NEW paper research 2h ago · arxiv-cs-ai

AuditRepairBench: エージェント修復における評価チャネル順位不安定性のためのペア実行トレースコーパス AuditRepairBench: A Paired-Execution Trace Corpus for Evaluator-Channel Ranking Instability in Agent Repair

AI要約 エージェント修復タスクにおける評価器(Evaluator)チャネルのランキング不安定性を検証するため、ペアになった実行トレースのコーパスAuditRepairBenchを提案。評価チャネル間の順位ばらつきを定量化し、修復評価の信頼性を分析する。

EN AuditRepairBench introduces a paired-execution trace corpus designed to study evaluator-channel ranking instability in agent repair tasks, quantifying inconsistencies across evaluation channels to assess repair benchmark reliability.

arxiv.org
NEW paper research 2h ago · arxiv-cs-lg

時間展開インタラクショングラフによる手術チーム動態のリアルタイムモデリング Actionable Real-Time Modeling of Surgical Team Dynamics via Time-Expanded Interaction Graphs

AI要約 手術チームの相互作用を時間展開グラフとしてモデル化し、リアルタイムで実行可能な分析を可能にする手法を提案。チームメンバー間の動的な関係を捉え、手術中の協調行動の理解と支援に活用できる。

EN This paper proposes a real-time modeling approach for surgical team dynamics using time-expanded interaction graphs, capturing dynamic relationships between team members to enable actionable analysis during surgery.

arxiv.org
Actionable Real-Time Modeling of Surgical Team Dynamics via Time-Expanded Interaction Graphs og
NEW paper research 2h ago · arxiv-cs-lg

ANDRE: アテンション機構による微分可能なニューロシンボリックルール抽出器 ANDRE: An Attention-based Neuro-symbolic Differentiable Rule Extractor

AI要約 本論文ではANDREという、アテンションベースのニューロシンボリック微分可能ルール抽出器を提案する。ニューラルネットワークの学習能力と記号的推論の解釈性を組み合わせ、データから人間に理解可能なルールを抽出する手法である。

EN This paper proposes ANDRE, an attention-based neuro-symbolic differentiable rule extractor that combines the learning power of neural networks with the interpretability of symbolic reasoning to extract human-understandable rules from data.

arxiv.org
ANDRE: An Attention-based Neuro-symbolic Differentiable Rule Extractor og
NEW paper research 2h ago · arxiv-cs-lg

展開時アラインメントはモデル単体評価だけでは推定できない Deployment-Relevant Alignment Cannot Be Inferred from Model-Level Evaluation Alone

AI要約 本論文は、モデル単体での評価だけでは実運用環境におけるAIアラインメントの安全性を十分に判断できないと主張する。展開文脈や運用条件を含めた評価体系の必要性を示し、現行の評価手法の限界を論じている。

EN This paper argues that model-level evaluations alone are insufficient to assess deployment-relevant alignment of AI systems, as safety depends on deployment context and operational conditions, calling for context-aware evaluation frameworks.

arxiv.org
NEW paper research 2h ago · arxiv-cs-lg

パラメータ動態からリスク評価へ:LLMファインチューニングにおけるサンプル単位の安全性劣化の定量化 From Parameter Dynamics to Risk Scoring : Quantifying Sample-Level Safety Degradation in LLM Fine-tuning

AI要約 本研究は、LLMのファインチューニング時に各学習サンプルが安全性をどの程度劣化させるかを定量化する手法を提案する。パラメータ更新の動態を解析しサンプル単位のリスクスコアを算出することで、有害な学習データを事前に特定可能にする。

EN This paper proposes a method to quantify how individual training samples degrade safety during LLM fine-tuning. By analyzing parameter update dynamics, it derives sample-level risk scores that help identify harmful training data in advance.

arxiv.org
NEW paper research 2h ago · arxiv-cs-lg

Lookahead Drifting Model Lookahead Drifting Model

EN arXiv:2605.04060v1 Announce Type: new Abstract: Recently, a new paradigm named \emph{drifting model} has been proposed for mapping distributions, which achieves the SOTA image generation performance o

arxiv.org
NEW paper research 2h ago · arxiv-cs-lg

EdgeRazor: A Lightweight Framework for Large Language Models via Mixed-Precision Quantization-Aware Distillation EdgeRazor: A Lightweight Framework for Large Language Models via Mixed-Precision Quantization-Aware Distillation

EN arXiv:2605.04062v1 Announce Type: new Abstract: Recent years have witnessed an increasing interest in deploying LLMs on resource-constrained devices, among which quantization has emerged as a promisin

arxiv.org
NEW paper research 2h ago · arxiv-cs-lg

Investigating Trustworthiness of Nonparametric Deep Survival Models for Alzheimer's Disease Progression Analysis Investigating Trustworthiness of Nonparametric Deep Survival Models for Alzheimer's Disease Progression Analysis

EN arXiv:2605.04063v1 Announce Type: new Abstract: Alzheimer's Dementia (AD) is a progressive neurodegenerative disease marked by irreversible decline, making reliable modeling of its progression essenti

arxiv.org
NEW paper research 2h ago · arxiv-cs-cl

Free Energy-Driven Reinforcement Learning with Adaptive Advantage Shaping for Unsupervised Reasoning in LLMs Free Energy-Driven Reinforcement Learning with Adaptive Advantage Shaping for Unsupervised Reasoning in LLMs

EN arXiv:2605.04065v1 Announce Type: new Abstract: Unsupervised reinforcement learning (RL) has emerged as a promising paradigm for enabling self-improvement in large language models (LLMs). However, exi

arxiv.org
NEW paper research 2h ago · arxiv-cs-cl

Connecting online criminal behavior with machine learning: Using authorship attribution to analyze and link potential online traffickers Connecting online criminal behavior with machine learning: Using authorship attribution to analyze and link potential online traffickers

EN arXiv:2605.04080v1 Announce Type: new Abstract: This research investigated how online criminal activities can be better understood and connected using data-driven machine learning methods. Many illega

arxiv.org
NEW paper research 2h ago · arxiv-cs-cl

FMI_SU_Yotkova_Kastreva at SemEval-2026 Task 13: Lightweight Detection of LLM-Generated Code via Stylometric Signals FMI_SU_Yotkova_Kastreva at SemEval-2026 Task 13: Lightweight Detection of LLM-Generated Code via Stylometric Signals

EN arXiv:2605.04157v1 Announce Type: new Abstract: SemEval-2026 Task 13 investigates machine-generated code detection across multiple programming languages and application scenarios, asking participating

arxiv.org