本論文は、LLMの推論能力は出力される思考連鎖(Chain of Thought)そのものではなく、潜在表現の中に存在すると主張する LLM Reasoning Is Latent, Not the Chain of Thought
AI要約 本論文は、LLMの推論能力は出力される思考連鎖(Chain of Thought)そのものではなく、潜在表現の中に存在すると主張する。CoTテキストは内部の潜在的推論過程の表層的な痕跡に過ぎず、モデルの真の推論機構を理解するには潜在空間の分析が必要であると論じている。
EN This paper argues that LLM reasoning resides in latent representations rather than the explicit Chain of Thought output. The CoT text is merely a surface trace of deeper latent reasoning, suggesting that understanding true model reasoning requires analyzing latent spaces.