计算受限观测者视角下的信息度量新范式 - 卡内基梅隆
papers

计算受限观测者视角下的信息度量新范式 - 卡内基梅隆

论文探讨了人工智能领域中数据选择与泛化能力的关系,并提出了核心概念“Epiplexity”(外延复杂度)。作者指出,传统的信息论在面对计算受限的观察者时存在局限性,无法准确衡量数据中可被学习的结构化信息**。通过分析三个信息悖论,研究揭示了数据的排列顺序、计算约束以及涌现现象如何影响模型获取信息。实验证明,Epiplexity 能够比传统的交叉熵(Entropy)更有效地预测模型在分布外任务(OOD)上的表现。该理论为优化预训练数据选择提供了数学工具,强调了在资源有限的情况下,结构信息的提取是提升通用智能的关键。
📅 2026-02-18 ⏱️ 6 分钟 📝 2285 字
#AI #Epiplexity #LLM
large_models

小米大模型全景调研 2025

基于最新的公开信息与技术披露,小米在大模型领域的端侧轻量化与云端推理优化双轮驱动的完整分析
large_models

小米大模型全景调研 2025

基于最新的公开信息与技术披露,小米在大模型领域的端侧轻量化与云端推理优化双轮驱动的完整分析
📅 2025-12-19 ⏱️ 4 分钟 📝 1311 字
#xiaomi #llm #端侧AI
papers

DeepSeekMath-V2 技术白皮书:迈向自验证数学推理

本文介绍了DeepSeekMath-V2,旨在克服传统上依赖最终答案的数学推理奖励机制的局限性。其核心创新在于通过训练一个专门的证明验证器来评估推导的逻辑严谨性,从而实现自我可验证的数学推理能力。该系统引入了元验证过程,以确保验证器识别的错 …
papers

DeepSeekMath-V2 技术白皮书:迈向自验证数学推理

本文介绍了DeepSeekMath-V2,旨在克服传统上依赖最终答案的数学推理奖励机制的局限性。其核心创新在于通过训练一个专门的证明验证器来评估推导的逻辑严谨性,从而实现自我可验证的数学推理能力。该系统引入了元验证过程,以确保验证器识别的错误是准确的,并利用此验证器作为奖励模型来训练生成器进行自我评估和迭代优化。这种生成与验证的协同作用创建了一个循环,通过扩展计算规模来自动标注难以验证的新证明,从而提高了系统的能力。
📅 2025-11-29 ⏱️ 17 分钟 📝 6424 字
#AI #DeepSeek #Math
AI的“知识僵化症”有救了?揭秘MIT自适应大模型SEAL
papers

AI的“知识僵化症”有救了?揭秘MIT自适应大模型SEAL

麻省理工学院(MIT)的一项开创性研究,为我们揭示了这场进化的具体路径。他们推出了一个名为 **SEAL (Self-Adapting Large Language Models,自适应大语言模型)** 的框架。这套框架首次赋予了AI模型一种前所未有的能力:它们可以“自己教自己”,通过生成和应用自己的学习材料,来持续进化其内部的知识体系。
📅 2025-10-29 ⏱️ 7 分钟 📝 2606 字
#SEAL #self-adaptive #llm
code_assistant

Claude-Code-Router:AI 时代的智能路由中枢

目录

Claude-Code-Router (CCR) 是一款创新的AI模型智能路由工具,它通过拦截Claude Code 应用对Anthropic Claude模型的请求,进行多维度分析(如Token数量、用户指令、任务类型),然后依据动态路由规则和配置,将请求智能地导向最合适的AI模型(来自如Gemini、DeepSeek、本地Ollama模型等不同的模型服务提供商)。CCR的核心机制包括API格式的自动转换与适配、基于Express.js的中间件架构、异步请求处理,以及完善的错误检测、自动降级到兜底模型和潜在的重试策略,旨在提升AI服务调用的效率、灵活性和成本效益。

📅 2025-08-12 ⏱️ 35 分钟 📝 13929 字
#Claude-Code-Router #LLM #AI