HomeTags#llm

#llm page 1/1 · 4 total

TODAY 4 entries
NEW paper research 5h ago · arxiv-cs-cl

大規模言語モデルの事前学習における「データ混合」手法を包括的に調査したサーベイ論文 Data Mixing for Large Language Models Pretraining: A Survey and Outlook

AI要約 大規模言語モデルの事前学習における「データ混合」手法を包括的に調査したサーベイ論文。オフライン/オンライン手法の分類、評価指標、既存研究の比較を整理し、今後の研究方向性と課題を示す。

EN A survey on data mixing strategies for large language model pretraining, categorizing offline and online methods, reviewing evaluation approaches, and outlining open challenges and future research directions.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-cl

本論文は大規模言語モデルの幾何学問題に対する内部表現の頑健性を測定する手法を提案する Measuring Representation Robustness in Large Language Models for Geometry

AI要約 本論文は大規模言語モデルの幾何学問題に対する内部表現の頑健性を測定する手法を提案する。問題文の意味を保った言い換えを与えた際に中間層の埋め込みがどの程度安定するかを分析し、LLMの推論の脆弱性を定量化する。

EN This paper proposes a method for measuring the robustness of internal representations in large language models when solving geometry problems, analyzing how embeddings shift under semantically equivalent rephrasings to quantify reasoning fragility.

arxiv.org
fallback
NEW paper research 5h ago · arxiv-cs-ai

本論文は、LLMの推論能力は出力される思考連鎖(Chain of Thought)そのものではなく、潜在表現の中に存在すると主張する LLM Reasoning Is Latent, Not the Chain of Thought

AI要約 本論文は、LLMの推論能力は出力される思考連鎖(Chain of Thought)そのものではなく、潜在表現の中に存在すると主張する。CoTテキストは内部の潜在的推論過程の表層的な痕跡に過ぎず、モデルの真の推論機構を理解するには潜在空間の分析が必要であると論じている。

EN This paper argues that LLM reasoning resides in latent representations rather than the explicit Chain of Thought output. The CoT text is merely a surface trace of deeper latent reasoning, suggesting that understanding true model reasoning requires analyzing latent spaces.

arxiv.org
fallback
NEW blog tech-news 13h ago · techcrunch

AI生成文章に特有の「It's not just X — it's Y」という対比構文が急増し、Barron's等で話題になっている It’s not just one thing — it’s another thing

AI要約 AI生成文章に特有の「It's not just X — it's Y」という対比構文が急増し、Barron's等で話題になっている。この決まり文句はChatGPTなどのLLMが多用する文体的特徴として認識され、人間の書き手も無意識に模倣しつつあると指摘されている。

EN The "It's not just X — it's Y" construction has become a telltale sign of AI-generated writing, as highlighted by Barron's. This stylistic tic, heavily used by LLMs like ChatGPT, is now being unconsciously mimicked by human writers.

techcrunch.com
fallback