疎で順序シャッフルされたCoTからも答えを抽出できる推論型LLM Rethinking Dense Sequential Chains: Reasoning Language Models Can Extract Answers from Sparse, Order-Shuffling Chain-of-Thoughts
AI要約 本論文は、推論型大規模言語モデルが従来想定されてきた密で逐次的な思考連鎖(CoT)に依存せず、疎で順序がシャッフルされた中間ステップからも正答を導けることを示す。冗長性や順序の重要性を再検討し、CoTの本質に新たな視点を投げかける研究である。
EN This paper argues that reasoning LLMs do not require dense, sequential chain-of-thought traces and can still extract correct answers from sparse, order-shuffled CoTs, challenging long-held assumptions about how step-by-step reasoning supports model performance.