HomeTags#factuality

#factuality page 1/1 · 2 total

TODAY 2 entries
NEW paper research 1h ago · arxiv-cs-lg

KARL:知識境界を意識した強化学習によるLLMの幻覚軽減 KARL: Mitigating Hallucinations in LLMs via Knowledge-Boundary-Aware Reinforcement Learning

AI要約 本論文は、LLMの幻覚を抑制するため、モデルの知識境界を認識した強化学習手法KARLを提案する。モデルが知っている事項のみを答え、未知の事項は拒否するよう学習させ、事実性タスクで幻覚率を低減する。

EN This paper introduces KARL, a knowledge-boundary-aware reinforcement learning method that mitigates hallucinations in LLMs by training models to answer only what they know and refuse otherwise, improving factual reliability.

arxiv.org
KARL: Mitigating Hallucinations in LLMs via Knowledge-Boundary-Aware Reinforcement Learning og
NEW blog claude 3h ago · qiita-claude

ClaudeやChatGPTは日本の首相やイラン最高指導者を正確に答えられない現状(2026年5月) As of May 2026, LLMs like Claude and ChatGPT still fail to correctly identify current worl…

AI要約 2026年5月時点でClaudeやChatGPTに日本の首相やイランの最高指導者を尋ねても、学習データの古さから正確に答えられないという現状を指摘した記事。LLMの知識更新の遅れと事実確認の限界を改めて示す内容となっている。

EN As of May 2026, LLMs like Claude and ChatGPT still fail to correctly identify current world leaders such as Japan's Prime Minister or Iran's Supreme Leader, highlighting persistent knowledge cutoff and factual update issues in major chatbots.

qiita.com
いまだに日本の首相、イランの最高指導者が誰か正確に答えられないClaudeやChatGPTの現実(2026年5月現在) og