LIVE · 05/16
claudeAnthropic、Claude Opus 4.7を発表 — 推論とコーディング性能を強化Introducing Claude Opus 4.7[anthropic-news]copilotRELGitHub App installation tokens: Per-request override headerGitHub App installation tokens: Per-request override header[github-changelog]vscodeRELZed nightly: 自動ウォッチ機能を改善 (#56126)nightly[zed-releases]agent-fwRELLangChain 1.3.1 リリース、バグ修正中心のパッチ更新langchain==1.3.1[langchain-releases]copilotRELGrok Code Fast 1 deprecatedGrok Code Fast 1 deprecated[github-changelog]copilotRELCopilot Memory supports user preferences for Pro, Pro+ usersCopilot Memory supports user preferences for Pro, Pro+ users[github-changelog]vscodeRELZed: editor.rsからfoldとselectionをモジュール分割collab-staging: action_log: Accept deleted hunks after commit (#56892)[zed-releases]researchD-VLA: VLAモデル向け高並列分散非同期強化学習フレームワークD-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models[arxiv-cs-ai]researchNeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent ProfilesNeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles[arxiv-cs-ai]research消したはずの claude -p が残っていた ── C3 v2.6.1〜v2.7.0JA消したはずの claude -p が残っていた ── C3 v2.6.1〜v2.7.0[zenn-ai]tech-newsarXiv、AI生成のスロップ論文を投稿する研究者を追放へArXiv will ban researchers who upload papers full of AI slop[the-verge]tech-news米中露が静止軌道で接近監視合戦、ロシアも参戦」Three's a party: US, China, and now Russia are on the prowl in GEO[ars-technica]tech-newsコンゴとウガンダでスーダン株エボラ流行、65人死亡Ebola outbreak with uncommon strain erupts in Congo and Uganda; 65 deaths[ars-technica]tech-newsホテルチェックインシステムの不備で約100万件のパスポートや免許証が露出A hotel check-in system left a million passports and driver’s licenses open for anyone to see[techcrunch]tech-newsarXiv、AI生成のずさんな投稿者を1年間投稿禁止にSend the arXiv AI-generated slop, get a yearlong vacation from submissions[ars-technica]tech-newsOpenAI、AppleのChatGPT統合の不出来に「裏切られた」と関係者OpenAI feels “burned” by Apple’s crappy ChatGPT integration, insiders say[ars-technica]tech-newsTesla、テレオペレーター関与のRobotaxi事故2件を公表Tesla reveals two Robotaxi crashes involving teleoperators[techcrunch]tech-newsAIラジオ実験が示す、AI単独運用の危うさAI radio hosts demonstrate why AI can’t be trusted alone[the-verge]tech-news異なる岩石からセメント製造、CO2排出ゼロの可能性Making cement from a different type of rock could clean up emissions[ars-technica]tech-newsGoogleがスパム規定を改定、AI操作行為も対象にGoogle updates its spam rules to include attempts to ‘manipulate’ AI[the-verge]tech-newsオンラインゲームの一方的終了を防ぐ法案、カリフォルニア州で前進Bill to block publishers from killing online games advances in California[ars-technica]tech-newsOpenAI、ChatGPTで銀行口座連携を可能にする新機能を計画中OpenAI now wants ChatGPT to access your bank accounts[the-verge]tech-newsOpenAI、銀行口座連携対応の個人向け資産管理ChatGPTを発表OpenAI launches ChatGPT for personal finance, will let you connect bank accounts[techcrunch]copilotGitHubが汎用アクセシビリティエージェントを開発、その過程で得た知見Building a general-purpose accessibility agent—and what we learned in the process[github-blog-ai]
Today 54
Total 884
Major 41
Active sources 49/51
Updated just now
Daily Summary

今日の更新

Today's Updates

Today 54 ▼ 88%
Yesterday 442
7-day 994
Last 7 days
7
38
48
84
321
442
54
05/10 05/11 05/12 05/13 05/14 05/15 05/16

過去日のカウントは保持ポリシー(per-source cap / half-life)により縮む場合があります。直近 1〜2 日の活動量の目安としてご覧ください。 Past-day counts may shrink over time due to retention (per-source cap / half-life). Use this chart as a rough gauge of the last 1-2 days.

Last 7 days article counts
DateCount
2026-05-107
2026-05-1138
2026-05-1248
2026-05-1384
2026-05-14321
2026-05-15442
2026-05-1654
主要な更新 Top stories 05/16 · 10 件 重要Important RELリリースRelease
  1. 01 claude Anthropic、Claude Opus 4.7を発表 — 推論とコーディング性能を強化 Introducing Claude Opus 4.7 Anthropicは最新モデル「Claude Opus 4.7」を発表した。前バージョンからコーディング、推論、エージェント的タスクの性能が向上し、フラッグシップモデルとして提供される。 Our latest model, Claude Opus 4.7, is now generally available. Opus 4.7 is a notable improvement on Opus 4.6 in advanced software engineering, with particular gains on the most difficult tasks. Users [anthropic-news]
  2. 02 copilot REL GitHub App installation tokens: Per-request override header GitHub App installation tokens: Per-request override header このエントリは github-changelog から収集した copilot 領域の最新アップデートです。原題:「GitHub App installation tokens: Per-request override header」。AI による日本語要約は次回以降の Worker run で生成されます。 As announced in April 2026, GitHub is rolling out a new token format for GitHub App installation tokens. To help you validate your apps and workflows before the rollout reaches… The post GitHub App in [github-changelog]
  3. 03 vscode REL Zed nightly: 自動ウォッチ機能を改善 (#56126) nightly Zedエディタのnightlyビルドで、デバッグ時の自動ウォッチ機能(auto watch)が改善された。これは変数を自動的に監視式として登録する機能で、デバッグ体験の向上を狙ったものとみられる。 settings: Fix inverted VS Code import for files.simpleDialog.enable … [zed-releases]
  4. 04 agent-fw REL LangChain 1.3.1 リリース、バグ修正中心のパッチ更新 langchain==1.3.1 LangChainがv1.3.1をリリース。1.3系のマイナーパッチで、エージェント関連の細かな修正や依存関係の調整が中心と見られる。1.3.0で導入された新エージェントAPIの安定化が進む。 Changes since langchain==1.3.0 release(langchain): 1.3.1 ( #37454 ) fix(langchain): alias Bedrock providers in summarization token check ( #37453 ) [langchain-releases]
  5. 05 copilot REL Grok Code Fast 1 deprecated Grok Code Fast 1 deprecated このエントリは github-changelog から収集した copilot 領域の最新アップデートです。原題:「Grok Code Fast 1 deprecated」。AI による日本語要約は次回以降の Worker run で生成されます。 We have deprecated Grok Code Fast 1 across all GitHub Copilot experiences (including Copilot Chat, inline edits, ask and agent modes, and code completions) today, May 15, 2026. Model Deprecation… The [github-changelog]
  6. 06 vscode REL Zed: editor.rsからfoldとselectionをモジュール分割 collab-staging: action_log: Accept deleted hunks after commit (#56892) Zedエディタのcollab-stagingリリースにて、巨大化していたeditor.rsからfold(折りたたみ)とselection(選択)関連のロジックを別モジュールへ抽出するリファクタリングが行われた。コードの保守性向上を目的とした内部整理である。 Sometimes the action log would not auto-accept deleted hunks, and I finally found a repro for this, here's an explanation of what went wrong // Before use crate :: { Alpha , Beta } ; fn keep ( ) { wor [zed-releases]
  7. 07 research D-VLA: VLAモデル向け高並列分散非同期強化学習フレームワーク D-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models D-VLAは視覚言語行動(VLA)モデルの強化学習を効率化する分散非同期フレームワーク。ロールアウト収集と学習を分離し高い並列性を実現することで、ロボット制御等の大規模VLA学習のスループットと安定性を向上させると見られる。 arXiv:2605.13276v2 Announce Type: replace Abstract: The rapid evolution of Embodied AI has enabled Vision-Language-Action (VLA) models to excel in multimodal perception and task execution. However, ap [arxiv-cs-ai]
  8. 08 research NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles このエントリは arxiv-cs-ai から収集した research 領域の最新アップデートです。原題:「NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles」。AI による日本語要約は次回以降の Worker run で生成されます。 arXiv:2605.01847v3 Announce Type: replace Abstract: Outcome-only evaluation under-specifies whether an evaluated agent profile preserves the commitments required to solve a multi-turn task coherently. [arxiv-cs-ai]
  9. 09 research 消したはずの claude -p が残っていた ── C3 v2.6.1〜v2.7.0 JA 消したはずの claude -p が残っていた ── C3 v2.6.1〜v2.7.0 前回記事: https://zenn.dev/satoh_y_0323/articles/db51bb73a97c19 C3 GitHub: https://github.com/satoh-y-0323/claude-code-condu [zenn-ai]
  10. 10 tech-news arXiv、AI生成のスロップ論文を投稿する研究者を追放へ ArXiv will ban researchers who upload papers full of AI slop プレプリントサーバーarXivは、AIで粗製乱造された総説論文やポジションペーパーの急増を受け、該当分野での投稿規制を強化。査読付き雑誌に採択された論文のみ受理する方針へ転換し、悪質な投稿者は所属機関からの追放対象となる。 ArXiv is tightening rules on AI-generated 'slop' papers, especially in computer science, by only accepting review articles and position papers that have already passed peer review at a journal or conference. Repeat offenders risk being banned by their institutions. [the-verge]
🔥 Today's Top 3 importance × recency
  1. Anthropic、Claude Opus 4.7を発表 — 推論とコーディング性能を強化 Introducing Claude Opus 4.7 anthropic-news 1m ago
  2. Zed Editor v1.2.6 リリース — 最新アップデートの概要 Zed Editor Releases v1.2.6 zed-releases 13h ago
  3. Gemma 4でエッジに最先端のエージェント機能をもたらす Bring state-of-the-art agentic skills to the edge with Gemma 4 google-developers 13h ago

Timeline 884 total · page 1/30

TODAY 30 entries
🔥 HOT NEW blog claude 1m ago · anthropic-news

Anthropic、Claude Opus 4.7を発表 — 推論とコーディング性能を強化 Introducing Claude Opus 4.7

AI要約 Anthropicは最新モデル「Claude Opus 4.7」を発表した。前バージョンからコーディング、推論、エージェント的タスクの性能が向上し、フラッグシップモデルとして提供される。

EN Our latest model, Claude Opus 4.7, is now generally available. Opus 4.7 is a notable improvement on Opus 4.6 in advanced software engineering, with particular gains on the most difficult tasks. Users

anthropic.com
NEW blog claude 1m ago · anthropic-news

AnthropicがClaudeとAnthropic Labsの新ブランドデザインを発表 Introducing Claude Design by Anthropic Labs

AI要約 AnthropicがClaudeおよび新組織「Anthropic Labs」のブランドアイデンティティを刷新した。AIとの対話体験をより人間的で温かみのあるものにするビジュアル言語を採用し、ロゴやタイポグラフィ、配色を一新している。

EN Today, we’re launching Claude Design, a new Anthropic Labs product that lets you collaborate with Claude to create polished visual work like designs, prototypes, slides, one-pagers, and more. Claude D

anthropic.com
Introducing Claude Design by Anthropic Labs og
NEW paper research 1m ago · arxiv-cs-ai

D-VLA: VLAモデル向け高並列分散非同期強化学習フレームワーク D-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models

AI要約 D-VLAは視覚言語行動(VLA)モデルの強化学習を効率化する分散非同期フレームワーク。ロールアウト収集と学習を分離し高い並列性を実現することで、ロボット制御等の大規模VLA学習のスループットと安定性を向上させると見られる。

EN arXiv:2605.13276v2 Announce Type: replace Abstract: The rapid evolution of Embodied AI has enabled Vision-Language-Action (VLA) models to excel in multimodal perception and task execution. However, ap

arxiv.org
D-VLA: A High-Concurrency Distributed Asynchronous Reinforcement Learning Framework for Vision-Language-Action Models og
NEW paper research 1m ago · arxiv-cs-ai

NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles

AI要約 このエントリは arxiv-cs-ai から収集した research 領域の最新アップデートです。原題:「NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.01847v3 Announce Type: replace Abstract: Outcome-only evaluation under-specifies whether an evaluated agent profile preserves the commitments required to solve a multi-turn task coherently.

arxiv.org
NeuroState-Bench: A Human-Calibrated Benchmark for Commitment Integrity in LLM Agent Profiles og
NEW paper research 1m ago · arxiv-cs-ai

レガシーSAS臨床報告システムをAI創薬向けに非破壊で近代化する手法 A Non-Destructive Methodological Framework for Modernizing Legacy Clinical Reporting Systems for AI-Driven Pharmacoinformatics: A SAS Case Study

AI要約 本論文は、製薬業界で長年使われてきたSASベースのレガシー臨床報告システムを、既存の検証済み資産を破壊せずにAI駆動のファーマコインフォマティクス基盤へ橋渡しする方法論的枠組みを提案する。SASコードを温存しつつ現代的なAI/MLパイプラインと連携させるラッパー設計のケーススタディが示される。

EN arXiv:2605.13905v1 Announce Type: cross Abstract: Drug development and pharmacovigilance are frequently bottlenecked by legacy clinical reporting pipelines. These monolithic systems encode regulatory-

arxiv.org
A Non-Destructive Methodological Framework for Modernizing Legacy Clinical Reporting Systems for AI-Driven Pharmacoinformatics: A SAS Case Study og
NEW paper research 1m ago · arxiv-cs-ai

LLM-Based Robustness Testing of Microservice Applications: An Empirical Study LLM-Based Robustness Testing of Microservice Applications: An Empirical Study

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「LLM-Based Robustness Testing of Microservice Applications: An Empirical Study」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14202v1 Announce Type: cross Abstract: Malformed, missing, or boundary-value inputs in microservice APIs can cascade across dependent services, threatening reliability. Robustness testing s

arxiv.org
LLM-Based Robustness Testing of Microservice Applications: An Empirical Study og
NEW paper research 1m ago · arxiv-cs-ai

Correctness-Aware Repository Filtering Under Maximum Effective Context Window Constraints Correctness-Aware Repository Filtering Under Maximum Effective Context Window Constraints

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Correctness-Aware Repository Filtering Under Maximum Effective Context Window Constraints」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14362v1 Announce Type: cross Abstract: Context window efficiency is a practical constraint in large language model (LLM)-based developer tools. Paulsen [12] shows that all tested models deg

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

In-IDE Toolkit for Developers of AI-Based Features In-IDE Toolkit for Developers of AI-Based Features

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「In-IDE Toolkit for Developers of AI-Based Features」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14612v1 Announce Type: cross Abstract: AI-enabled features built on LLMs and agentic workflows are difficult to test, debug, and reproduce, especially for product-focused software engineers

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Towards In-Depth Root Cause Localization for Microservices with Multi-Agent Recursion-of-Thought Towards In-Depth Root Cause Localization for Microservices with Multi-Agent Recursion-of-Thought

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Towards In-Depth Root Cause Localization for Microservices with Multi-Agent Recursion-of-Thought」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14866v1 Announce Type: cross Abstract: As modern microservice systems grow increasingly complex due to dynamic interactions and evolving runtime environments, they experience failures with

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Viverra: Text-to-Code with Guarantees Viverra: Text-to-Code with Guarantees

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Viverra: Text-to-Code with Guarantees」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14972v1 Announce Type: cross Abstract: A fundamental limitation of Text-to-Code is that no guarantee can be obtained about the correctness of the generated code. Therefore, to ensure its co

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

A Two-Dimensional Framework for AI Agent Design Patterns: Cognitive Function and Execution Topology A Two-Dimensional Framework for AI Agent Design Patterns: Cognitive Function and Execution Topology

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「A Two-Dimensional Framework for AI Agent Design Patterns: Cognitive Function and Execution Topology」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.13850v1 Announce Type: new Abstract: Existing frameworks for LLM-based agent architectures describe systems from a single perspective: industry guides (Anthropic, Google, LangChain) focus o

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

The Impact of Generative AI on Collaborative Open-Source Software Development: Evidence from GitHub Copilot The Impact of Generative AI on Collaborative Open-Source Software Development: Evidence from GitHub Copilot

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「The Impact of Generative AI on Collaborative Open-Source Software Development: Evidence from GitHub Copilot」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2410.02091v3 Announce Type: replace-cross Abstract: Generative artificial intelligence (AI) facilitates content production and enhances ideation capabilities, which can significantly influence d

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

From Ranking to Reasoning: Explainable Web API Recommendation via Semantic Reasoning From Ranking to Reasoning: Explainable Web API Recommendation via Semantic Reasoning

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「From Ranking to Reasoning: Explainable Web API Recommendation via Semantic Reasoning」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2511.05820v2 Announce Type: replace-cross Abstract: The rapid growth of Web APIs has made automated Web API recommendation essential for efficient mashup development. However, existing approache

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

CRANE: Constrained Reasoning Injection for Code Agents via Nullspace Editing CRANE: Constrained Reasoning Injection for Code Agents via Nullspace Editing

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「CRANE: Constrained Reasoning Injection for Code Agents via Nullspace Editing」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14084v1 Announce Type: cross Abstract: Code agents must both reason over long-horizon repository state and obey strict tool-use protocols. In paired Instruct/Thinking checkpoints, these cap

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

SWE-Chain: Benchmarking Coding Agents on Chained Release-Level Package Upgrades SWE-Chain: Benchmarking Coding Agents on Chained Release-Level Package Upgrades

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「SWE-Chain: Benchmarking Coding Agents on Chained Release-Level Package Upgrades」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14415v1 Announce Type: cross Abstract: Coding agents powered by large language models are increasingly expected to perform realistic software maintenance tasks beyond isolated issue resolut

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

When Retrieval Hurts Code Completion: A Diagnostic Study of Stale Repository Context When Retrieval Hurts Code Completion: A Diagnostic Study of Stale Repository Context

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「When Retrieval Hurts Code Completion: A Diagnostic Study of Stale Repository Context」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14478v1 Announce Type: cross Abstract: Context: Retrieval-augmented code generation relies on cross-file repository context, but retrieved snippets may come from obsolete project states. Ob

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Web Agents Should Adopt the Plan-Then-Execute Paradigm Web Agents Should Adopt the Plan-Then-Execute Paradigm

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Web Agents Should Adopt the Plan-Then-Execute Paradigm」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14290v1 Announce Type: cross Abstract: ReAct has become the default architecture across LLM agents, and many existing web agents follow this paradigm. We argue that it is the wrong default

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Vibe Code Bench: Evaluating AI Models on End-to-End Web Application Development Vibe Code Bench: Evaluating AI Models on End-to-End Web Application Development

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Vibe Code Bench: Evaluating AI Models on End-to-End Web Application Development」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2603.04601v3 Announce Type: replace-cross Abstract: Code generation has emerged as one of AI's highest-impact use cases, yet existing benchmarks measure isolated tasks rather than the complete "

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Procedural Refinement by LLM-driven Algorithmic Debugging for ARC-AGI-2 Procedural Refinement by LLM-driven Algorithmic Debugging for ARC-AGI-2

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「Procedural Refinement by LLM-driven Algorithmic Debugging for ARC-AGI-2」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2603.20334v3 Announce Type: replace-cross Abstract: In high-complexity abstract reasoning, a system must infer a latent rule from a few examples or structured observations and apply it to unseen

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

(How) Do Large Language Models Understand High-Level Message Sequence Charts? (How) Do Large Language Models Understand High-Level Message Sequence Charts?

AI要約 このエントリは arxiv-cs-se から収集した research 領域の最新アップデートです。原題:「(How) Do Large Language Models Understand High-Level Message Sequence Charts?」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.13773v2 Announce Type: replace-cross Abstract: Large Language Models (LLMs) are being employed widely to automate tasks across the software development life-cycle. It is, however, unclear w

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

HodgeCover: Higher-Order Topological Coverage Drives Compression of Sparse Mixture-of-Experts HodgeCover: Higher-Order Topological Coverage Drives Compression of Sparse Mixture-of-Experts

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「HodgeCover: Higher-Order Topological Coverage Drives Compression of Sparse Mixture-of-Experts」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.13997v1 Announce Type: cross Abstract: Sparse Mixture-of-Experts (MoE) layers route tokens through a handful of experts, and learning-free compression of these layers reduces inference cost

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

PreFT: Prefill-only finetuning for efficient inference PreFT: Prefill-only finetuning for efficient inference

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「PreFT: Prefill-only finetuning for efficient inference」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14217v1 Announce Type: cross Abstract: Large language models can now be personalised efficiently at scale using parameter efficient finetuning methods (PEFTs), but serving user-specific PEF

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Diagnosing Training Inference Mismatch in LLM Reinforcement Learning Diagnosing Training Inference Mismatch in LLM Reinforcement Learning

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Diagnosing Training Inference Mismatch in LLM Reinforcement Learning」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14220v1 Announce Type: cross Abstract: Modern LLM RL systems separate rollout generation from policy optimization. These two stages are expected to produce token probabilities that match ex

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Active Learners as Efficient PRP Rerankers Active Learners as Efficient PRP Rerankers

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Active Learners as Efficient PRP Rerankers」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14236v1 Announce Type: cross Abstract: Pairwise Ranking Prompting (PRP) elicits pairwise preference judgments from an LLM, which are then aggregated into a ranking, usually via classical so

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Does RAG Know When Retrieval Is Wrong? Diagnosing Context Compliance under Knowledge Conflict Does RAG Know When Retrieval Is Wrong? Diagnosing Context Compliance under Knowledge Conflict

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Does RAG Know When Retrieval Is Wrong? Diagnosing Context Compliance under Knowledge Conflict」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14473v1 Announce Type: cross Abstract: The Context-Compliance Regime in Retrieval-Augmented Generation (RAG) occurs when retrieved context dominates the final answer even when it conflicts

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Dimension-Level Intent Fidelity Evaluation for Large Language Models: Evidence from Structured Prompt Ablation Dimension-Level Intent Fidelity Evaluation for Large Language Models: Evidence from Structured Prompt Ablation

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Dimension-Level Intent Fidelity Evaluation for Large Language Models: Evidence from Structured Prompt Ablation」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14517v1 Announce Type: cross Abstract: Holistic evaluation scores capture overall output quality but do not distinguish whether a model reproduced the structural form of a user's request fr

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

AI-assisted cultural heritage dissemination: Comparing NMT and glossary-augmented LLM translation in rock art documents AI-assisted cultural heritage dissemination: Comparing NMT and glossary-augmented LLM translation in rock art documents

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「AI-assisted cultural heritage dissemination: Comparing NMT and glossary-augmented LLM translation in rock art documents」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14679v1 Announce Type: cross Abstract: Cultural heritage institutions increasingly disseminate research and interpretive materials globally, but multilingual dissemination is constrained by

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Mechanical Enforcement for LLM Governance:Evidence of Governance-Task Decoupling in Financial Decision Systems Mechanical Enforcement for LLM Governance:Evidence of Governance-Task Decoupling in Financial Decision Systems

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Mechanical Enforcement for LLM Governance:Evidence of Governance-Task Decoupling in Financial Decision Systems」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14744v1 Announce Type: cross Abstract: Large language models in regulated financial workflows are governed by natural-language policies that the same model interprets, creating a principal-

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Video2GUI: Synthesizing Large-Scale Interaction Trajectories for Generalized GUI Agent Pretraining Video2GUI: Synthesizing Large-Scale Interaction Trajectories for Generalized GUI Agent Pretraining

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Video2GUI: Synthesizing Large-Scale Interaction Trajectories for Generalized GUI Agent Pretraining」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14747v1 Announce Type: cross Abstract: Recent advances in multimodal large language models have driven growing interest in graphical user interface (GUI) agents, yet their generalization re

arxiv.org
NEW paper research 1m ago · arxiv-cs-ai

Non-linear Interventions on Large Language Models Non-linear Interventions on Large Language Models

AI要約 このエントリは arxiv-cs-cl から収集した research 領域の最新アップデートです。原題:「Non-linear Interventions on Large Language Models」。AI による日本語要約は次回以降の Worker run で生成されます。

EN arXiv:2605.14749v1 Announce Type: cross Abstract: Intervention is one of the most representative and widely used methods for understanding the internal representations of large language models (LLMs).

arxiv.org