LIVE · 05/06
vscodeRELv1.1.5-prev1.1.5-pre[zed-releases]copilotRELGitHub MCP Serverによるシークレットスキャンが一般提供開始Secret scanning with GitHub MCP Server is now generally available[github-changelog]copilotRELGitHub MCP Serverによる依存関係スキャンがパブリックプレビューにDependency scanning with GitHub MCP Server is in public preview[github-changelog]researchCode World Model の安全性評価レポートCode World Model Preparedness Report[arxiv-cs-ai]tech-newsPeter SarlinのQuTwo、エンジェルラウンドで3.8億ドルの評価額に到達Peter Sarlin’s QuTwo reaches $380M valuation in angel round[techcrunch]tech-newsSAP、設立18か月のドイツAIラボに11.6億ドル投資しNemoClaw採用SAP bets $1.16B on 18-month-old German AI lab and says yes to NemoClaw[techcrunch]tech-newsLucid Motors、今年のEV生産台数の見通しを撤回Lucid Motors doesn’t know how many EVs it will build this year[techcrunch]mcpn8n公式MCPが「実行」から「構築」へ:Claude/Codexからワークフローを直接生成n8n's official MCP server has evolved from merely executing workflows to actually building…[qiita-mcp]tech-newsGoogle HomeのGemini AIがより複雑な指示に対応可能にGoogle Home’s Gemini AI can handle more complicated requests[the-verge]tech-newsシリコンバレー、海上に浮かぶAIデータセンターに2億ドル投資Silicon Valley bets $200M on AI data centers floating in the ocean[ars-technica]tech-newsAppleがAI Siri未提供で集団訴訟、2.5億ドル和解へApple agrees to pay iPhone owners $250 million for not delivering AI Siri[the-verge]tech-news暗号資産市場の冷え込み下、a16z cryptoが22億ドルの新ファンドを調達As crypto cools, a16z crypto raises a $2.2B fund[techcrunch]tech-news医師免許を主張するチャットボットでCharacter.AIが提訴されるCharacter.AI sued over chatbot that claims to be a real doctor with a license[ars-technica]tech-newsApple、iOS 27でAIモデルを選択可能にする計画Apple plans to make iOS 27 a Choose Your Own Adventure of AI models[techcrunch]tech-newsVolkswagenがRivianの筆頭株主に、Amazonを抜くVolkswagen becomes Rivian’s top shareholder, displacing Amazon[techcrunch]tech-newsMicrosoft、Xbox向けCopilot AIアシスタント構想を断念Microsoft gives up on Xbox Copilot AI[the-verge]tech-newsDaemon Toolsに1か月にわたるサプライチェーン攻撃でバックドア混入Widely used Daemon Tools disk app backdoored in monthlong supply-chain attack[ars-technica]tech-newsiOS 27でお気に入りのAIモデルを選べる可能性、Appleが検討Apple could let you pick a favorite AI model in iOS 27[the-verge]tech-newsRFK Jr.、抗うつ薬をヘロインと誤って比較し規制を計画RFK Jr. plans to curb antidepressants, which he falsely compares to heroin[ars-technica]tech-newsOpenAIの未来を巡るMuskとAltmanの法廷闘争Live updates from Elon Musk and Sam Altman’s court battle over the future of OpenAI[the-verge]tech-newsAmazon WorkSpaces、AIエージェント専用デスクトップを提供開始(プレビュー)Modernize your workflows: Amazon WorkSpaces now gives AI agents their own desktop (preview)[aws-news]tech-newsGoogle Home、Gemini音声アシスタントとカメラ操作を強化Google Home gets upgraded Gemini voice assistant and new camera controls[ars-technica]tech-newsトランプ政権下のSEC、Musk の1.5億ドル訴訟を150万ドルで和解Trump SEC lets Musk settle $150 million Twitter lawsuit for $1.5 million[ars-technica]tech-newsNVIDIAとServiceNow、企業向け自律型AIエージェントで提携NVIDIA and ServiceNow Partner on New Autonomous AI Agents for Enterprises[nvidia-blog]
Today 150
Total 500
Major 17
Sources 40
Updated just now
Daily Summary

今日の更新

Today's Updates

Today 150 ▲ 39%
Yesterday 108
7-day 362
Last 7 days
19
20
20
13
32
108
150
04/30 05/01 05/02 05/03 05/04 05/05 05/06
主要な更新 Top stories 05/06 · 10 件
  1. 01 vscode REL v1.1.5-pre v1.1.5-pre Fixed the git: worktree popup listing no worktrees when a project was opened at the parent of a .bare directory (bare-clone-with-sibling-worktrees layout). ( #55790 ) Fixed a crash when pasting an ima [zed-releases]
  2. 02 copilot REL GitHub MCP Serverによるシークレットスキャンが一般提供開始 Secret scanning with GitHub MCP Server is now generally available GitHub MCP Serverを通じたシークレットスキャン機能が一般提供(GA)となりました。AIエージェントやMCP対応クライアントから、リポジトリのシークレット検出アラートに直接アクセスし管理できるようになります。 Secret scanning via the GitHub MCP Server is now generally available, enabling AI agents and MCP-compatible clients to access and manage repository secret scanning alerts directly through standardized tooling. [github-changelog]
  3. 03 copilot REL GitHub MCP Serverによる依存関係スキャンがパブリックプレビューに Dependency scanning with GitHub MCP Server is in public preview GitHub MCP Serverに依存関係スキャン機能がパブリックプレビューとして追加されました。これによりAIエージェントやツールから依存関係の脆弱性情報にアクセスでき、セキュリティ管理をワークフローに統合しやすくなります。 GitHub has launched dependency scanning capabilities through the GitHub MCP Server in public preview, allowing AI agents and tools to access dependency vulnerability information and integrate security management into developer workflows. [github-changelog]
  4. 04 research Code World Model の安全性評価レポート Code World Model Preparedness Report Code World Model(CWM)のリリースに伴う安全性評価レポート。サイバーセキュリティ、化学・生物兵器、AI自己改善などの主要リスク領域について評価を実施し、重大なリスクは確認されなかったと報告している。 A preparedness report evaluating the Code World Model (CWM) across critical risk domains including cybersecurity, CBRN, and AI self-improvement, finding no significant risk thresholds crossed. [arxiv-cs-ai]
  5. 05 tech-news Peter SarlinのQuTwo、エンジェルラウンドで3.8億ドルの評価額に到達 Peter Sarlin’s QuTwo reaches $380M valuation in angel round Silo AIの共同創業者Peter Sarlinが立ち上げた新スタートアップQuTwoが、エンジェルラウンドで3.8億ドルの評価額に達した。同社の事業内容や調達額の詳細とともに、AI分野での次なる挑戦として注目を集めている。 QuTwo, a new startup founded by Silo AI co-founder Peter Sarlin, has reached a $380M valuation in its angel round, drawing significant attention as his next venture in the AI space. [techcrunch]
  6. 06 tech-news SAP、設立18か月のドイツAIラボに11.6億ドル投資しNemoClaw採用 SAP bets $1.16B on 18-month-old German AI lab and says yes to NemoClaw SAPが設立わずか18か月のドイツのAIスタートアップに11.6億ドルを投じ、同社の「NemoClaw」AI技術の採用を決定した。欧州発のAI基盤強化を狙う大型投資として注目される。 SAP is investing $1.16B in an 18-month-old German AI lab and adopting its NemoClaw technology, marking a major bet on European AI infrastructure and signaling SAP's push to strengthen its enterprise AI stack. [techcrunch]
  7. 07 tech-news Lucid Motors、今年のEV生産台数の見通しを撤回 Lucid Motors doesn’t know how many EVs it will build this year 米EVメーカーLucid Motorsは、2024年の生産台数見通しを撤回した。サプライチェーンや市場環境の不確実性を理由に、年間生産台数の予測を提示できない状況にあると明らかにした。 Lucid Motors has withdrawn its annual EV production guidance, saying it can no longer provide a forecast for how many vehicles it will build this year amid supply chain and market uncertainties. [techcrunch]
  8. 08 mcp n8n公式MCPが「実行」から「構築」へ:Claude/Codexからワークフローを直接生成 n8n's official MCP server has evolved from merely executing workflows to actually building… n8nの公式MCPサーバーが、従来の「ワークフロー実行」から「ワークフロー構築」へと進化した。ClaudeやCodexなどのAIアシスタントから自然言語で指示するだけで、n8nのワークフローを直接生成・編集できるようになり、開発体験が大きく変わる。 n8n's official MCP server has evolved from merely executing workflows to actually building them. Users can now generate and edit n8n workflows directly from AI assistants like Claude and Codex via natural language instructions. [qiita-mcp]
  9. 09 tech-news Google HomeのGemini AIがより複雑な指示に対応可能に Google Home’s Gemini AI can handle more complicated requests GoogleはGemini 3.1をGoogle Homeに統合し、複数の操作を含む複雑な音声リクエストを処理可能にした。例えば「リビングを暗くして音楽をかけて」のような複合コマンドを一度に実行でき、自然な対話体験が向上する。 Google has upgraded Google Home with Gemini 3.1, enabling it to handle more complex, multi-step voice requests like dimming lights and playing music in a single command for a more natural conversational experience. [the-verge]
  10. 10 tech-news シリコンバレー、海上に浮かぶAIデータセンターに2億ドル投資 Silicon Valley bets $200M on AI data centers floating in the ocean シリコンバレーの投資家らが、海洋に浮かぶAIデータセンターの構築を目指すスタートアップに約2億ドルを投資。波力発電と海水冷却を活用し、電力と冷却の課題を解決する狙いだが、技術的・環境的な懸念も指摘されている。 Silicon Valley investors are pouring around $200M into startups building floating AI data centers powered by ocean waves and cooled by seawater, aiming to address power and cooling challenges, though technical and environmental concerns remain. [ars-technica]
🔥 Today's Top 3 importance × recency
  1. v1.1.5-pre v1.1.5-pre zed-releases 12h ago
  2. Cursorに「git clone」だけでPC乗っ取り、CVSS 9.9の重大脆弱性 A critical CVSS 9.9 vulnerability in Cursor allows arbitrary code execution merely by git … qiita-cursor 3d ago
  3. Microsoft、Agent 365を一般提供開始 AIエージェントを全社で統合管理 Agent 365 is now generally available! We’re extending the systems customers already use for identity, security, governance and management to every AI agent and their interactions across the enterprise. Read more… microsoft-source 4d ago

Timeline 500 total · page 1/17

TODAY 30 entries
NEW blog local-llm 12m ago · qiita-llm

NoLLM(Not-only-LLM)についての考察②:制御可能なAIシステムへ The second installment exploring NoLLM (Not-only-LLM), a concept of combining LLMs with ex…

AI要約 LLM単独ではなく外部ロジックや制約と組み合わせるNoLLM(Not-only-LLM)の概念を考察する記事の第2弾。制御可能で信頼性の高いAIシステムを構築するためのアーキテクチャや設計指針を論じている。

EN The second installment exploring NoLLM (Not-only-LLM), a concept of combining LLMs with external logic and constraints. The author discusses architectures and design principles for building controllable and reliable AI systems.

qiita.com
NoLLM(Not-only-LLM)について考察してみた②(制御可能なAIシステムに向けて) og
NEW blog tech-news 1h ago · techcrunch

Peter SarlinのQuTwo、エンジェルラウンドで3.8億ドルの評価額に到達 Peter Sarlin’s QuTwo reaches $380M valuation in angel round

AI要約 Silo AIの共同創業者Peter Sarlinが立ち上げた新スタートアップQuTwoが、エンジェルラウンドで3.8億ドルの評価額に達した。同社の事業内容や調達額の詳細とともに、AI分野での次なる挑戦として注目を集めている。

EN QuTwo, a new startup founded by Silo AI co-founder Peter Sarlin, has reached a $380M valuation in its angel round, drawing significant attention as his next venture in the AI space.

techcrunch.com
Peter Sarlin’s QuTwo reaches $380M valuation in angel round og
NEW blog tech-news 1h ago · techcrunch

Marc Lore氏、AIで誰もがレストランを開業可能になると主張 Marc Lore says that AI will soon enable anyone open a restaurant

AI要約 起業家のMarc Lore氏は、AIの進化により近い将来、専門知識のない個人でも簡単にレストランを開業・運営できるようになると語った。AIがメニュー設計や運営管理などを担うことで参入障壁が大幅に下がるという。

EN Entrepreneur Marc Lore claims that AI will soon lower the barriers to entry in the restaurant industry, allowing anyone to open and run a restaurant by automating menu design, operations, and management tasks.

techcrunch.com
Marc Lore says that AI will soon enable anyone open a restaurant og
NEW blog local-llm 1h ago · qiita-llm

絵文字や空白に攻撃命令を隠す?2026年春のAIへの新攻撃3つを解説 This article explains three new attack techniques against AI emerging in spring 2026, incl…

AI要約 2026年春に登場したAIへの新たな攻撃手法3種を解説する記事。絵文字や不可視の空白文字にプロンプトインジェクション命令を隠す手口など、見えない場所に悪意ある指示を仕込む攻撃の仕組みと対策を紹介している。

EN This article explains three new attack techniques against AI emerging in spring 2026, including prompt injection methods that hide malicious instructions in emojis or invisible whitespace characters, along with their mechanisms and countermeasures.

qiita.com
「絵文字や空白に攻撃命令を隠せる」って本当?— 2026年春のAIへの新攻撃3つを解説 og
NEW blog claude 3h ago · qiita-claude

Claude in Chromeでイベント作成を自動化した話 A hands-on report on automating calendar event creation using Claude in Chrome

AI要約 Claude in Chromeを利用し、ブラウザ操作を通じてカレンダーへのイベント作成を自動化した実践レポート。導入手順や実際の動作の様子を紹介し、ブラウザ拡張型エージェントの活用可能性を示した内容となっている。

EN A hands-on report on automating calendar event creation using Claude in Chrome. The author walks through setup and actual browser automation behavior, demonstrating the practical potential of browser-extension AI agents.

qiita.com
Claude in Chromeでイベント作成を自動化した話 og
NEW blog local-llm 3h ago · qiita-llm

プロンプトの読み込み忘れを防ぐ設計手法:論文紹介GIP Introduces a paper on GIP (Guided Instruction Prompting), a text-only prompt design techni…

AI要約 LLMがプロンプト内の指示を見落とす問題に対し、テキストのみで構造化して読み込ませるGIP(Guided Instruction Prompting)という設計手法を提案する論文を紹介。指示の確実な遵守を促す工夫が示されている。

EN Introduces a paper on GIP (Guided Instruction Prompting), a text-only prompt design technique that structures instructions to prevent LLMs from overlooking parts of the prompt and improve instruction adherence.

qiita.com
NEW blog local-llm 3h ago · qiita-llm

なぜ「キャッシュヒット」で90%オフ? LLMプロンプトキャッシュの仕組みを図解 This article visually explains how LLM prompt caching can reduce costs by up to 90%

AI要約 LLMのプロンプトキャッシュがなぜ料金を最大90%削減できるのかを図解で解説する記事。Transformerの内部処理であるKVキャッシュの仕組みを起点に、再利用可能な計算結果をどのように活用してコストとレイテンシを下げるかを丁寧に説明している。

EN This article visually explains how LLM prompt caching can reduce costs by up to 90%. Starting from Transformer's internal KV cache mechanism, it details how reusable computation results lower both pricing and latency for repeated prompts.

qiita.com
なぜ「キャッシュヒット」で90%オフ? LLMプロンプトキャッシュの仕組みを全部図解する og
NEW paper research 4h ago · arxiv-cs-ai

質的研究におけるGenerative AIの活用は是か非か To Vibe Research or Not to Vibe Research? Generative AI in Qualitative Research

AI要約 本論文は質的研究に生成AIを取り入れる「Vibe Research」の是非を検討する。AIによるコーディングや分析支援の利点を認めつつ、解釈の妥当性や研究者の役割、倫理的課題を議論し、適切な活用指針を提示する。

EN This paper examines the use of generative AI in qualitative research ('vibe research'), discussing benefits like AI-assisted coding and analysis alongside concerns about interpretive validity, researcher agency, and ethical implications, offering guidance for responsible adoption.

arxiv.org
To Vibe Research or Not to Vibe Research? Generative AI in Qualitative Research og
NEW paper research 4h ago · arxiv-cs-ai

Code World Model の安全性評価レポート Code World Model Preparedness Report

AI要約 Code World Model(CWM)のリリースに伴う安全性評価レポート。サイバーセキュリティ、化学・生物兵器、AI自己改善などの主要リスク領域について評価を実施し、重大なリスクは確認されなかったと報告している。

EN A preparedness report evaluating the Code World Model (CWM) across critical risk domains including cybersecurity, CBRN, and AI self-improvement, finding no significant risk thresholds crossed.

arxiv.org
Code World Model Preparedness Report og
NEW paper research 4h ago · arxiv-cs-ai

生産性と信頼性のパラドックス:AI支援ソフトウェア開発のための仕様駆動ガバナンス The Productivity-Reliability Paradox: Specification-Driven Governance for AI-Augmented Software Development

AI要約 AI支援によるソフトウェア開発で生産性と信頼性が両立しないパラドックスを指摘し、仕様駆動型ガバナンスによってAI生成コードの品質と保守性を担保する枠組みを提案する研究論文。

EN This paper highlights the productivity-reliability paradox in AI-augmented software development and proposes a specification-driven governance framework to ensure quality and maintainability of AI-generated code.

arxiv.org
The Productivity-Reliability Paradox: Specification-Driven Governance for AI-Augmented Software Development og
NEW paper research 4h ago · arxiv-cs-ai

ソフトウェア設計におけるLLM活用:GitHub調査と実務者アンケート Using LLMs in Software Design: An Empirical Study of GitHub and A Practitioner Survey

AI要約 GitHub上のリポジトリ分析と実務者へのアンケートを通じて、ソフトウェア設計プロセスにおける大規模言語モデル(LLM)の利用実態を実証的に調査した研究。設計タスクへのLLM適用の現状と課題、利点を明らかにする。

EN An empirical study examining how large language models are used in software design, combining analysis of GitHub repositories with a survey of practitioners to identify current adoption patterns, benefits, and challenges.

arxiv.org
Using LLMs in Software Design: An Empirical Study of GitHub and A Practitioner Survey og
NEW paper research 4h ago · arxiv-cs-ai

LiveFMBench: 仕様生成におけるエージェントワークフローの能力と限界 LiveFMBench: Unveiling the Power and Limits of Agentic Workflows in Specification Generation

AI要約 形式手法における仕様生成タスク向けの新ベンチマークLiveFMBenchを提案。エージェント型LLMワークフローの性能と限界を評価し、複雑な仕様の自動生成における課題を明らかにした。

EN This paper introduces LiveFMBench, a benchmark for evaluating agentic LLM workflows on formal specification generation, revealing both the capabilities and limitations of current agent-based approaches in producing complex specifications.

arxiv.org
LiveFMBench: Unveiling the Power and Limits of Agentic Workflows in Specification Generation og
NEW paper research 4h ago · arxiv-cs-ai

自律的テスト修復の限界:LLM駆動マルチエージェントの事例研究 Practical Limits of Autonomous Test Repair: A Multi-Agent Case Study with LLM-Driven Discovery and Self-Correction

AI要約 本研究はLLM駆動のマルチエージェントシステムによる自律的なテスト修復の実用的限界を検証する事例研究である。発見と自己修正の能力を評価し、現状の手法では完全自動化に課題が残ることを示した。

EN A case study examining the practical limits of autonomous test repair using a multi-agent system with LLM-driven discovery and self-correction, highlighting remaining challenges for full automation.

arxiv.org
Practical Limits of Autonomous Test Repair: A Multi-Agent Case Study with LLM-Driven Discovery and Self-Correction og
NEW paper research 4h ago · arxiv-cs-ai

Agentopic: 説明可能なトピックモデリングのための生成AIエージェントワークフロー Agentopic: A Generative AI Agent Workflow for Explainable Topic Modeling

AI要約 本論文は、生成AIエージェントを活用した説明可能なトピックモデリング手法「Agentopic」を提案する。従来のトピックモデルに比べ、エージェントによる反復的な処理で解釈性と精度を向上させ、抽出されたトピックに対する説明能力を高めている。

EN This paper proposes Agentopic, a generative AI agent-based workflow for explainable topic modeling. By leveraging iterative agent reasoning, it improves interpretability and accuracy over traditional topic models while providing explanations for extracted topics.

arxiv.org
Agentopic: A Generative AI Agent Workflow for Explainable Topic Modeling og
NEW paper research 4h ago · arxiv-cs-ai

StyleShield: 連続可制御スタイル転送によるAIGC検出器の脆弱性暴露 StyleShield: Exposing the Fragility of AIGC Detectors through Continuous Controllable Style Transfer

AI要約 本論文はStyleShieldを提案し、連続的かつ制御可能なスタイル転送を用いてAIGC(AI生成コンテンツ)検出器の脆弱性を明らかにする。スタイルの強度を調整することで検出器を回避でき、既存検出手法の頑健性に重大な課題があることを示した。

EN This paper introduces StyleShield, which exposes the fragility of AIGC detectors via continuous controllable style transfer. By adjusting style intensity, the method can evade detection, revealing significant robustness limitations in current AIGC detection approaches.

arxiv.org
StyleShield: Exposing the Fragility of AIGC Detectors through Continuous Controllable Style Transfer og
NEW paper research 4h ago · arxiv-cs-ai

PhaseNet++: 位相コヒーレンスグラフによる産業制御システムの周波数領域異常検知 PhaseNet++: Phase-Aware Frequency-Domain Anomaly Detection for Industrial Control Systems via Phase Coherence Graphs

AI要約 産業制御システム向けの異常検知手法PhaseNet++を提案。周波数領域での位相情報とセンサ間の位相コヒーレンスグラフを活用し、従来の振幅ベース手法では捉えにくい微細な異常を検出する。

EN PhaseNet++ is a phase-aware frequency-domain anomaly detection method for industrial control systems that leverages phase coherence graphs across sensors to detect subtle anomalies missed by amplitude-based approaches.

arxiv.org
PhaseNet++: Phase-Aware Frequency-Domain Anomaly Detection for Industrial Control Systems via Phase Coherence Graphs og
NEW paper research 4h ago · arxiv-cs-ai

CGM-JEPA: 予測的自己教師あり事前学習による持続血糖モニタ表現の学習 CGM-JEPA: Learning Consistent Continuous Glucose Monitor Representations via Predictive Self-Supervised Pretraining

AI要約 持続血糖モニタ(CGM)データに対して、予測的自己教師あり学習フレームワークJEPAを応用した手法CGM-JEPAを提案。マスクされた領域の表現を予測することで一貫した連続血糖表現を学習し、下流タスクでの性能向上を示した。

EN This paper introduces CGM-JEPA, a predictive self-supervised pretraining framework that learns consistent representations of continuous glucose monitor (CGM) data by predicting masked region embeddings, improving performance on downstream health tasks.

arxiv.org
CGM-JEPA: Learning Consistent Continuous Glucose Monitor Representations via Predictive Self-Supervised Pretraining og
NEW paper research 4h ago · arxiv-cs-ai

DIAGRAMS: 図表QAにおける推論レベル帰属のレビュー枠組み DIAGRAMS: A Review Framework for Reasoning-Level Attribution in Diagram QA

AI要約 図表質問応答(Diagram QA)における推論プロセスを段階的に評価・帰属するためのレビューフレームワーク「DIAGRAMS」を提案。回答の正誤だけでなく、どの推論ステップで誤りが生じたかを特定し、モデルの弱点分析を可能にする。

EN This paper introduces DIAGRAMS, a review framework for attributing reasoning steps in Diagram Question Answering. It enables fine-grained evaluation by pinpointing where models fail in the reasoning chain rather than only judging final answer correctness.

arxiv.org
DIAGRAMS: A Review Framework for Reasoning-Level Attribution in Diagram QA og
NEW paper research 4h ago · arxiv-cs-ai

パープレキシティ差分でファインチューニング目的が露呈するモデル生物の脆弱性 Model Organisms Are Leaky: Perplexity Differencing Often Reveals Finetuning Objectives

AI要約 AI安全性研究で用いられるモデル生物(意図的に挙動を操作したファインチューニング済みモデル)が、ベースモデルとのパープレキシティ差分を取るだけでファインチューニングの目的が頻繁に漏洩することを示した研究。隠蔽の難しさを指摘する。

EN This paper shows that model organisms used in AI safety research often leak their finetuning objectives through simple perplexity differencing against base models, revealing fundamental challenges in concealing training goals.

arxiv.org
Model Organisms Are Leaky: Perplexity Differencing Often Reveals Finetuning Objectives og
NEW paper research 4h ago · arxiv-cs-ai

チューター対話における解釈可能な難易度考慮型知識追跡 Interpretable Difficulty-Aware Knowledge Tracing in Tutor-Student Dialogues

AI要約 チューターと学生の対話を対象に、難易度を考慮した解釈可能な知識追跡手法を提案。発話単位で問題の難易度と学生の知識状態を推定し、従来手法より高精度かつ説明可能な学習者モデリングを実現する。

EN This paper proposes an interpretable difficulty-aware knowledge tracing method for tutor-student dialogues, estimating problem difficulty and student knowledge at the utterance level for more accurate and explainable learner modeling.

arxiv.org
Interpretable Difficulty-Aware Knowledge Tracing in Tutor-Student Dialogues og
NEW paper research 4h ago · arxiv-cs-ai

ハイブリッド言語モデルにおけるコンポーネント対応型自己投機的デコーディング Component-Aware Self-Speculative Decoding in Hybrid Language Models

AI要約 ハイブリッド言語モデル(Transformer+SSM等)向けの自己投機的デコーディング手法を提案。モデル内のコンポーネントを認識して投機実行することで、追加のドラフトモデルなしに推論を高速化する研究。

EN This paper proposes a component-aware self-speculative decoding method for hybrid language models that combine Transformer and SSM components, accelerating inference without requiring a separate draft model.

arxiv.org
Component-Aware Self-Speculative Decoding in Hybrid Language Models og
NEW paper research 4h ago · arxiv-cs-ai

H-Probes: 言語モデルの潜在表現から階層構造を抽出する手法 H-Probes: Extracting Hierarchical Structures From Latent Representations of Language Models

AI要約 言語モデルの潜在表現から階層的構造を抽出する新手法「H-Probes」を提案する研究。プロービング技術を用いて、モデル内部に符号化された構文木などの階層情報を解析し、言語モデルの表現能力の理解に貢献する。

EN This paper introduces H-Probes, a probing technique designed to extract hierarchical structures (such as syntactic trees) from the latent representations of language models, contributing to interpretability research on what hierarchical information is encoded internally.

arxiv.org
H-Probes: Extracting Hierarchical Structures From Latent Representations of Language Models og
NEW paper research 4h ago · arxiv-cs-cl

RECAP: AI支援プログラミング対話を記録・再生・分析する統合プラットフォーム RECAP: An End-to-End Platform for Capturing, Replaying, and Analyzing AI-Assisted Programming Interactions

AI要約 RECAPは、AI支援によるプログラミング作業中のユーザーとAIの対話を捕捉・再生・分析するためのエンドツーエンド基盤を提案する研究。開発者の行動やAI利用パターンを詳細に記録し再現することで、AIコーディング支援の評価や改善に役立つ分析を可能にする。

EN RECAP is an end-to-end platform designed to capture, replay, and analyze interactions between developers and AI assistants during programming sessions, enabling detailed study and evaluation of AI-assisted coding workflows.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

AIはニュースの偏向を是正できるか?LLM介入で党派間受容性は向上するもLLMは効果を過大評価 Can AI Debias the News? LLM Interventions Improve Cross-Partisan Receptivity but LLMs Overestimate Their Own Effectiveness

AI要約 LLMによるニュース記事のリライト介入が、党派を超えた受容性を高めることを実証した研究。一方でLLM自身は介入の効果を過大に見積もる傾向があり、自己評価の信頼性に課題があることを示した。

EN This study shows that LLM-based rewriting interventions on news articles can improve cross-partisan receptivity, but LLMs tend to overestimate the effectiveness of their own debiasing interventions when self-evaluating.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

LLMは検出できない社会的比較トリガーを生成する Psychologically Potent, Computationally Invisible: LLMs Generate Social-Comparison Triggers They Fail to Detect

AI要約 研究はLLMが心理的に強力な社会的比較を引き起こすコンテンツを生成できる一方で、自らが生成したそのトリガーを検出できないことを示した。生成と検知の能力にギャップがある安全性上の懸念を提起する。

EN This study finds that LLMs can generate content that triggers psychologically potent social comparison effects, yet fail to detect these same triggers, revealing a gap between generation and detection capabilities with safety implications.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

構成的スキルによる攻撃のゲーム理論的考察 A Theoretical Game of Attacks via Compositional Skills

AI要約 本論文は、LLMに対する攻撃を構成的スキルの組み合わせとして捉え、ゲーム理論的枠組みで分析する。攻撃者と防御者の相互作用をモデル化し、スキル合成による新たな脆弱性とその防御戦略について理論的考察を行う。

EN This paper proposes a game-theoretic framework to analyze attacks on LLMs as compositions of skills, modeling attacker-defender interactions and theoretically examining vulnerabilities arising from skill composition along with potential defense strategies.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

差分プライバシーテキスト難読化におけるテキスト分解と予算配分の体系的検証 A Systematic Exploration of Text Decomposition and Budget Distribution in Differentially Private Text Obfuscation

AI要約 差分プライバシーを用いたテキスト難読化において、テキストを単語・文・文書単位にどう分解し、プライバシー予算をどう配分するかを系統的に比較検証した研究。分解粒度と予算配分が有用性とプライバシー保護のトレードオフに与える影響を示す。

EN This paper systematically explores how text decomposition granularity (word, sentence, document) and privacy budget distribution strategies impact the utility-privacy tradeoff in differentially private text obfuscation methods.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

文埋め込み空間での言い換え幾何制御:局所多様体モデリングと潜在プロービング Controlled Paraphrase Geometry in Sentence Embedding Space: Local Manifold Modeling and Latent Probing

AI要約 本論文は文埋め込み空間における言い換え文の幾何構造を解析し、局所多様体モデリングと潜在プロービング手法を提案する。これにより言い換え関係を制御可能な形で表現でき、意味的近傍の構造理解と生成への応用が示される。

EN This paper analyzes the geometric structure of paraphrases in sentence embedding space, proposing local manifold modeling and latent probing techniques to enable controlled representation of paraphrase relationships and improve semantic neighborhood understanding.

arxiv.org
NEW paper research 4h ago · arxiv-cs-cl

LLMにブラジル公式臨床ガイドラインの知識を注入 Teaching LLMs Brazilian Healthcare: Injecting Knowledge from Official Clinical Guidelines

AI要約 ブラジル保健省の公式臨床プロトコルから知識を抽出し、LLMに注入することでブラジルの医療領域に適応させる研究。公式ガイドラインを活用し、現地医療文脈に即した応答性能の向上を図る。

EN This paper presents a method to adapt LLMs to Brazilian healthcare by injecting knowledge extracted from official clinical guidelines issued by Brazil's Ministry of Health, improving model performance in the local medical context.

arxiv.org