my_insights

LLM 个人知识库:从信息摄取到知识固化后的闭环操作指南

在 AI 时代,我们面临的挑战不再是找不到信息,而是信息无法转化为持久的资产。传统的检索增强生成(RAG)如同一场“临时面试”,你喂给 LLM 几个片段,它拼凑出一个答案,然后转头就忘。

my_insights

LLM 个人知识库:从信息摄取到知识固化后的闭环操作指南

在 AI 时代,我们面临的挑战不再是找不到信息,而是信息无法转化为持久的资产。传统的检索增强生成(RAG)如同一场“临时面试”,你喂给 LLM 几个片段,它拼凑出一个答案,然后转头就忘。

📅 2026-04-05 ⏱️ 5 分钟 📝 2178 字
#AI #Karpathy #llm
celebrity_insights

Karpathy (Gist): LLM Wiki实操理念说明

Karpathy基于大语言模型的个人知识库的新的方法的实操理念说明,我搬运过来,翻译了一下。
celebrity_insights

Karpathy (Gist): LLM Wiki实操理念说明

Karpathy基于大语言模型的个人知识库的新的方法的实操理念说明,我搬运过来,翻译了一下。
📅 2026-04-04 ⏱️ 9 分钟 📝 4063 字
#AI #Karpathy #llm
计算受限观测者视角下的信息度量新范式 - 卡内基梅隆
papers

计算受限观测者视角下的信息度量新范式 - 卡内基梅隆

论文探讨了人工智能领域中数据选择与泛化能力的关系,并提出了核心概念“Epiplexity”(外延复杂度)。作者指出,传统的信息论在面对计算受限的观察者时存在局限性,无法准确衡量数据中可被学习的结构化信息**。通过分析三个信息悖论,研究揭示了数据的排列顺序、计算约束以及涌现现象如何影响模型获取信息。实验证明,Epiplexity 能够比传统的交叉熵(Entropy)更有效地预测模型在分布外任务(OOD)上的表现。该理论为优化预训练数据选择提供了数学工具,强调了在资源有限的情况下,结构信息的提取是提升通用智能的关键。
📅 2026-02-18 ⏱️ 6 分钟 📝 2285 字
#AI #Epiplexity #LLM
large_model

mHC: Redefining Deep Learning Scalability - DeekSeek

2026年伊始,DeepSeek团队带来了mHC(流形约束超连接),这项技术完美解决了传统残差连接提升性能的超连接技术因破坏稳定性而难以实用的阿喀琉斯之踵.
large_model

mHC: Redefining Deep Learning Scalability - DeekSeek

2026年伊始,DeepSeek团队带来了mHC(流形约束超连接),这项技术完美解决了传统残差连接提升性能的超连接技术因破坏稳定性而难以实用的阿喀琉斯之踵.
📅 2026-01-01 ⏱️ 8 分钟 📝 2907 字
#AI #DeepSeek #mHC