TLDR
RD-Agent是一个数据驱动的AI研发自动化框架,其核心理念是将研发过程分解为两个关键组件:
- R (Research):主动探索,提出新想法
- D (Development):实现想法,将概念转化为可执行的代码
qlib
RD-Agent是一个数据驱动的AI研发自动化框架,其核心理念是将研发过程分解为两个关键组件:
qlib
Neo4j推出了2025年首个版本的LLM知识图谱构建器(LLM Knowledge Graph Builder),这是一个开源工具,旨在从非结构化数据中提取知识并构建知识 …
一个模块化且高效的检索、重排序和 RAG 框架,专为最新的检索、排序和 RAG 任务模型设计。
Rankify 是一个 Python 工具包,专为统一的检索、重排序和检索增强生成(RAG)研究而构建。该工具包集成了 40 …
一个模块化且高效的检索、重排序和 RAG 框架,专为最新的检索、排序和 RAG 任务模型设计。
Rankify 是一个 Python 工具包,专为统一的检索、重排序和检索增强生成(RAG)研究而构建。该工具包集成了 40 个预检索的基准数据集,支持 7 种检索技术,包含 24 种最先进的重排序模型,并支持多种 RAG 方法。Rankify 提供一个模块化且可扩展的框架,使研究人员和实践者能够轻松进行实验和基准测试,涵盖完整的检索流程。详细的文档、开源实现和预构建的评估工具,使 Rankify 成为该领域研究者和工程师的强大工具。
py-spy 是一个专为 Python 设计的采样型性能分析器(sampling profiler),它的主要作用是:
在不中断、无侵入、不修改代码的情况下,实时分析正在运行的 Python 程序的性能瓶颈!
安装腾讯元宝app,OS 应用,小程序。 外网访问:https://llm.hunyuan.tencent.com/#/chat/hy-t1
安装腾讯元宝app,OS 应用,小程序。 外网访问:https://llm.hunyuan.tencent.com/#/chat/hy-t1
下面是一张表格,总结了scaling law各种曲线和相关参数之间的关系,有助于对比它们各自的设计理念和重点关注的参数。
下面是一张表格,总结了scaling law各种曲线和相关参数之间的关系,有助于对比它们各自的设计理念和重点关注的参数。
| 理论名称 | 提出者/研究团队 | 主要关注参数 / 关系 | 核心思想及说明 | 论文ID(arXiv) | 发表时间 |
|---|---|---|---|---|---|
| Kaplan 理论/曲线 | OpenAI | 参数数量 ≫ 数据量 | 主张在固定计算量(FLOPs)下优先扩展模型参数。增加模型参数数量能够显著提升性能;因而设计了超大规模模型(例如 GPT-3 的 175B 参数)但训练数据相对较少。 | Scaling Laws for Neural Language Models | 待确认 |
| Chinchilla 理论曲线 | DeepMind | 参数与数据平衡 | 在相同计算预算下,参数数量与训练数据应达到最佳平衡,避免参数过大导致资源浪费;实验表明减少参数并增加数据能够提升泛化能力。 | 2203.15556 | 2022 |
| Deep Scaling Laws | OpenAI | 参数、数据、计算复杂度 | 提出了模型性能(Loss)与 [N^{-a} + D^{-b} + C^{-c}] 的幂次关系,强调三者联合优化的重要性。 | 2001.08361 | 2020 |
| Optimal Compute Allocation | DeepMind | 参数与数据反比配置 | 研究在固定 FLOPs 下如何分配参数和训练数据,指出应该采用反比配置以充分利用计算资源,成为 Chinchilla 理论形成的基础。 | 2203.15556 | 2022 |
| Scaling Laws for Transfer Learning | Google & OpenAI | 预训练与微调资源分配 | 着眼于迁移学习阶段,探讨预训练和微调资源如何协同作用,展示如何通过调整两阶段的数据与参数协调优化模型在特定任务上的表现。 | 2102.01293(示例) | 2021 |
| Data Scaling Laws | Google Research | 数据质量与多样性 | 专注于训练数据的重要性,指出数据量增加对小模型提升更显著,同时强调高质量与多样化数据对大模型泛化能力的关键作用。 | 2204.02311 | 2022 |
| Lottery Ticket Hypothesis | Jonathan Frankle 与 Michael Carbin | 参数稀疏性与子网络训练 | 提出在大规模网络中存在可单独训练且表现稳定的子网络(“彩票”),暗示在大模型中并非所有参数都是必要的,从侧面支持减少有效参数以达到高效训练。 | 1803.03635 | 2018 |
| Scaling Laws for Multimodal Models | OpenAI(CLIP团队) | 多模态数据对齐 | 探讨不同模态数据如何协同优化模型性能,强调各模态间的比例与对齐关系是提升多模态模型效果的关键。 | 2103.00020 | 2021 |
| FLOP-Efficiency Scaling Laws | NVIDIA & Meta | 计算资源高效利用 | 注重硬件与算法的协调优化,提出通过混合精度、稀疏矩阵运算等技术,在固定 FLOPs 下提升模型训练与推理的资源效率。 | 2205.14135 | 2022 |
| Emergent Scaling Laws | Anthropic | 临界规模下的能力涌现 | 研究当模型规模增大超过某个临界值时,突然涌现出复杂能力(如推理、编程等),强调了超大规模模型在特定临界点后的能力突变现象。 | 2206.07682 | «Emergent Abilities of Large Language Models》 |
该理论是由 DeepMind 在 2022 年提出的一种关于 大规模语言模型(LLMs)训练效率的理论框架,它解决了早期 LLM 中普遍存在的 参数规模和训练数据量不平衡 的问题。简单来说,这个理论为 LLM 的 参数数量、训练数据量(tokens)和计算资源(FLOPs) 提供了一个优化指导,帮助模型在相同计算预算下实现更高效的性能
The Surprising Effectiveness of Test-Time Training for Abstract Reasoning
