摘要

这篇研究介绍了一种名为递归语言模型(RLM)的新型推理策略,旨在攻克大语言模型在处理超长文本时的上下文衰减与窗口限制难题。RLM的核心思想是将长提示词视为外部环境而非直接输入,并将其加载至 Python REPL 环境中。通过这种方式,模型能够以编程化手段对文本进行拆解、筛选和递归调用,从而突破数百万词元的限制。实验表明,RLM 在长文本推理任务中的表现显著优于传统的总结代理或检索工具,且成本效益极高。该方法实现了推理侧的计算扩展,为通向无限上下文和复杂长程任务处理开辟了新路径。

Recursive Language Models
Slides
Recursive Language Models
1 / --

闪卡回顾

📚 知识回顾 (0 张闪卡)

参考文献

  • 论文:https://arxiv.org/pdf/2512.24601
  • 解读:https://www.youtube.com/watch?v=huszaaJPjU8