计算受限观测者视角下的信息度量新范式 - 卡内基梅隆
papers

计算受限观测者视角下的信息度量新范式 - 卡内基梅隆

论文探讨了人工智能领域中数据选择与泛化能力的关系,并提出了核心概念“Epiplexity”(外延复杂度)。作者指出,传统的信息论在面对计算受限的观察者时存在局限性,无法准确衡量数据中可被学习的结构化信息**。通过分析三个信息悖论,研究揭示了数据的排列顺序、计算约束以及涌现现象如何影响模型获取信息。实验证明,Epiplexity 能够比传统的交叉熵(Entropy)更有效地预测模型在分布外任务(OOD)上的表现。该理论为优化预训练数据选择提供了数学工具,强调了在资源有限的情况下,结构信息的提取是提升通用智能的关键。
📅 2026-02-18 ⏱️ 6 分钟 📝 2285 字
#AI #Epiplexity #LLM
papers

DeepSeekMath-V2 技术白皮书:迈向自验证数学推理

本文介绍了DeepSeekMath-V2,旨在克服传统上依赖最终答案的数学推理奖励机制的局限性。其核心创新在于通过训练一个专门的证明验证器来评估推导的逻辑严谨性,从而实现自我可验证的数学推理能力。该系统引入了元验证过程,以确保验证器识别的错 …
papers

DeepSeekMath-V2 技术白皮书:迈向自验证数学推理

本文介绍了DeepSeekMath-V2,旨在克服传统上依赖最终答案的数学推理奖励机制的局限性。其核心创新在于通过训练一个专门的证明验证器来评估推导的逻辑严谨性,从而实现自我可验证的数学推理能力。该系统引入了元验证过程,以确保验证器识别的错误是准确的,并利用此验证器作为奖励模型来训练生成器进行自我评估和迭代优化。这种生成与验证的协同作用创建了一个循环,通过扩展计算规模来自动标注难以验证的新证明,从而提高了系统的能力。
📅 2025-11-29 ⏱️ 17 分钟 📝 6424 字
#AI #DeepSeek #Math
AI的“知识僵化症”有救了?揭秘MIT自适应大模型SEAL
papers

AI的“知识僵化症”有救了?揭秘MIT自适应大模型SEAL

麻省理工学院(MIT)的一项开创性研究,为我们揭示了这场进化的具体路径。他们推出了一个名为 **SEAL (Self-Adapting Large Language Models,自适应大语言模型)** 的框架。这套框架首次赋予了AI模型一种前所未有的能力:它们可以“自己教自己”,通过生成和应用自己的学习材料,来持续进化其内部的知识体系。
📅 2025-10-29 ⏱️ 7 分钟 📝 2606 字
#SEAL #self-adaptive #llm
Agent训练新范式:Agent Learning via Early Experience
papers

Agent训练新范式:Agent Learning via Early Experience

传统AI训练像是把人类所有的知识都强行灌输AI,而Meta的最新论文《Agent Learning via Early Experience》为我们展示了一条训练AI智能体的新路径: 可扩展、无需奖励的实用范式,通过将智能体自身的行为和结果转化为强大的监督信号,显著提升了AI的性能、数据效率和泛化能力。
📅 2025-10-14 ⏱️ 8 分钟 📝 2852 字
#AI #Meta #Agent