HomePage 2

Timeline page 2/16 · 459 total

TODAY 30 entries
NEW paper research 5h ago · arxiv-cs-cl

本論文LiFTは、大規模言語モデルにおける指示ファインチューニングが、縦断的(時系列)モデリングの文脈内学習能力を向上させるかを検証する LiFT: Does Instruction Fine-Tuning Improve In-Context Learning for Longitudinal Modelling by Large Language Models?

AI要約 本論文LiFTは、大規模言語モデルにおける指示ファインチューニングが、縦断的(時系列)モデリングの文脈内学習能力を向上させるかを検証する。指示調整モデルとベースモデルを比較し、長期的なデータパターン把握への影響を評価した。

EN LiFT investigates whether instruction fine-tuning improves in-context learning performance of large language models on longitudinal modelling tasks, comparing instruction-tuned and base models on capturing temporal data patterns.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-cl

QIAS 2026共有タスク向けに、アラビア語イスラム相続法推論のため多段階QLoRAファインチューニングを適用した研究 QU-NLP at QIAS 2026: Multi-Stage QLoRA Fine-Tuning for Arabic Islamic Inheritance Reasoning

AI要約 QIAS 2026共有タスク向けに、アラビア語イスラム相続法推論のため多段階QLoRAファインチューニングを適用した研究。段階的な学習戦略により、複雑な法的推論タスクで高精度を達成した。

EN QU-NLP's submission to QIAS 2026 applies multi-stage QLoRA fine-tuning for Arabic Islamic inheritance reasoning, achieving strong performance on complex legal reasoning tasks through progressive training.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-cl

本論文は大規模言語モデルの幾何学問題に対する内部表現の頑健性を測定する手法を提案する Measuring Representation Robustness in Large Language Models for Geometry

AI要約 本論文は大規模言語モデルの幾何学問題に対する内部表現の頑健性を測定する手法を提案する。問題文の意味を保った言い換えを与えた際に中間層の埋め込みがどの程度安定するかを分析し、LLMの推論の脆弱性を定量化する。

EN This paper proposes a method for measuring the robustness of internal representations in large language models when solving geometry problems, analyzing how embeddings shift under semantically equivalent rephrasings to quantify reasoning fragility.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-cl

生物医学知識を言語モデルに注入する二つの手法、継続事前学習とGraphRAGを比較した研究 Injecting Structured Biomedical Knowledge into Language Models: Continual Pretraining vs. GraphRAG

AI要約 生物医学知識を言語モデルに注入する二つの手法、継続事前学習とGraphRAGを比較した研究。構造化された医療知識グラフの活用法を検証し、それぞれの性能や適用場面の違いを評価している。

EN This paper compares two approaches for injecting structured biomedical knowledge into language models: continual pretraining and GraphRAG, evaluating their respective performance and use cases.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-cl

本論文HalluSAEは、スパースオートエンコーダ(SAE)を用いて大規模言語モデルの内部表現から幻覚に関連する特徴を抽出し、幻覚の検出を行… HalluSAE: Detecting Hallucinations in Large Language Models via Sparse Auto-Encoders

AI要約 本論文HalluSAEは、スパースオートエンコーダ(SAE)を用いて大規模言語モデルの内部表現から幻覚に関連する特徴を抽出し、幻覚の検出を行う手法を提案する。既存手法より高精度に幻覚を識別でき、解釈可能性も向上させる。

EN HalluSAE proposes using sparse auto-encoders to extract hallucination-related features from LLM internal representations, enabling more accurate and interpretable detection of hallucinations compared to existing methods.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-se

AgentGuard: A Multi-Agent Framework for Robust Package Confusion Detection via Hybrid Search and Metadata-Content Fusion AgentGuard: A Multi-Agent Framework for Robust Package Confusion Detection via Hybrid Search and Metadata-Content Fusion

EN arXiv:2604.16309v1 Announce Type: new Abstract: The proliferation of open-source software (OSS) has made software supply chains prime targets for attacks like Package Confusion, where adversaries publ

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-se

Be a Partner, not a Bystander in Software Engineering Practice: Bridging the Gaps between Academia and Industry Be a Partner, not a Bystander in Software Engineering Practice: Bridging the Gaps between Academia and Industry

EN arXiv:2604.16315v1 Announce Type: new Abstract: Software engineering conferences bring together thousands of academicians and software practitioners so that academic research and professional practice

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-se

Modelling GDPR-based Privacy Requirements with Software Engineering Diagrams: A Systematic Literature Review Modelling GDPR-based Privacy Requirements with Software Engineering Diagrams: A Systematic Literature Review

EN arXiv:2604.16361v1 Announce Type: new Abstract: The application of the General Data Protection Regulation (GDPR) has significantly affected privacy requirements elicitation, modelling, and verificatio

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

DeepER-Medは、医学分野でエビデンスに基づく研究を推進するためのエージェントAIフレームワーク DeepER-Med: Advancing Deep Evidence-Based Research in Medicine Through Agentic AI

AI要約 DeepER-Medは、医学分野でエビデンスに基づく研究を推進するためのエージェントAIフレームワーク。複数の専門エージェントが連携し、文献検索・評価・統合を自動化することで、臨床的な意思決定支援と体系的レビューの効率化を目指す。

EN DeepER-Med is an agentic AI framework designed to advance evidence-based medical research by coordinating specialized agents that automate literature retrieval, appraisal, and synthesis to support clinical decision-making and systematic reviews.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

GISTは、インテリジェントな意味的トポロジーを用いて画像とテキストからマルチモーダルな知識抽出と空間的接地(グラウンディング)を同時に行う… GIST: Multimodal Knowledge Extraction and Spatial Grounding via Intelligent Semantic Topology

AI要約 GISTは、インテリジェントな意味的トポロジーを用いて画像とテキストからマルチモーダルな知識抽出と空間的接地(グラウンディング)を同時に行う新しいフレームワークを提案する論文である。意味構造を活用することで精度向上を達成する。

EN GIST is a new framework for simultaneous multimodal knowledge extraction and spatial grounding from images and text, leveraging intelligent semantic topology to improve accuracy.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文はカナダ政府のAI登録簿を分析し、公開されている情報が何を明らかにし、何を省略し、何を曖昧にしているかを検証する Bureaucratic Silences: What the Canadian AI Register Reveals, Omits, and Obscures

AI要約 本論文はカナダ政府のAI登録簿を分析し、公開されている情報が何を明らかにし、何を省略し、何を曖昧にしているかを検証する。官僚的な透明性制度の限界と、説明責任のギャップを指摘している。

EN This paper analyzes the Canadian AI Register, examining what it reveals, omits, and obscures about government AI use, and highlights the limitations of bureaucratic transparency mechanisms and gaps in accountability.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

LACE(Lattice Attention for Cross-thread Exploration)は、複数の推論スレッド間で情報を共有… LACE: Lattice Attention for Cross-thread Exploration

AI要約 LACE(Lattice Attention for Cross-thread Exploration)は、複数の推論スレッド間で情報を共有するための格子状アテンション機構を提案する研究。スレッド横断的な探索を可能にし、並列推論の効率と精度を向上させる。

EN LACE (Lattice Attention for Cross-thread Exploration) introduces a lattice-structured attention mechanism enabling information sharing across parallel reasoning threads, improving efficiency and accuracy of multi-thread inference.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文は、事前登録型の信念修正契約という枠組みを提案し、エージェントが新情報を受け取る前に信念更新の方針を明示的にコミットする手法を定式化す… Preregistered Belief Revision Contracts

AI要約 本論文は、事前登録型の信念修正契約という枠組みを提案し、エージェントが新情報を受け取る前に信念更新の方針を明示的にコミットする手法を定式化する。これにより信念変化の透明性と検証可能性を高めることを狙う。

EN The paper introduces preregistered belief revision contracts, a framework where agents commit in advance to how they will update beliefs upon receiving new information, aiming to make belief change more transparent and verifiable.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文はAIエージェントの蒸留過程において、安全でない行動が潜在的に教師モデルから生徒モデルへ転移する「サブリミナル転移」現象を検証した研究… Subliminal Transfer of Unsafe Behaviors in AI Agent Distillation

AI要約 本論文はAIエージェントの蒸留過程において、安全でない行動が潜在的に教師モデルから生徒モデルへ転移する「サブリミナル転移」現象を検証した研究である。明示的に有害データを除外しても、微細な統計的痕跡を通じて不安全行動が引き継がれる可能性を示す。

EN This paper investigates subliminal transfer of unsafe behaviors during AI agent distillation, showing that student models can inherit undesirable traits from teachers even when explicit harmful data is filtered out, via subtle statistical signals.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文は、モンテカルロ木探索(MCTS)を用いてエージェントのスキルを二階層最適化する手法を提案する Bilevel Optimization of Agent Skills via Monte Carlo Tree Search

AI要約 本論文は、モンテカルロ木探索(MCTS)を用いてエージェントのスキルを二階層最適化する手法を提案する。上位層でスキル構造を探索し、下位層でパラメータを調整することで、複雑タスクにおけるエージェント性能を向上させる。

EN This paper proposes a bilevel optimization framework for agent skills using Monte Carlo Tree Search, where the upper level explores skill structures and the lower level tunes parameters to improve agent performance on complex tasks.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文は、世界が未来の情報を漏洩させるという観点から、進化的アプローチを活用した未来予測エージェントを提案する The World Leaks the Future: Harness Evolution for Future Prediction Agents

AI要約 本論文は、世界が未来の情報を漏洩させるという観点から、進化的アプローチを活用した未来予測エージェントを提案する。エージェントは環境からの手がかりを収集・進化させ、予測精度を向上させる手法を示している。

EN This paper proposes future prediction agents that harness evolutionary methods, based on the idea that the world leaks future information. The agents gather and evolve environmental cues to improve prediction accuracy.

arxiv.org
fallback