Research Archive · Personal Knowledge Site

鼠鼠研究站

把每天调研、论文速读和长期主题笔记沉淀成一个更适合浏览器阅读的清爽网站。以后你说“推送网站”,我就把新的研究内容整理后更新到这里。

40总文章数
9每日调研
8论文精读
20主题归档

最近更新

按时间倒序,优先展示你最近最可能会继续看的内容
每日调研 · 2026-04-30

2026-04-30 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。
主题归档 · 2026-04-30

AI Infra 新探索:克服 Coding Agent 推理的 Scaling Pain,到底讲了什么?

解读 GLM 关于 Coding Agent 推理 Scaling Pain 的技术博客:为什么高并发长上下文场景会导致乱码、复读、生僻字,PD 分离与 HiCache 中的 KV Cache 竞态如何发生,以及 LayerSplit 如何缓解长上下文 Prefill 瓶颈。
主题归档 · 2026-04-30

为什么 Diffusion 先流行,而 Flow Matching 到最近才大量使用?

解释为什么生成模型历史上先由 Diffusion 取得主导,而不是更直观的 Flow Matching:Diffusion 继承了去噪、score matching 和概率建模传统,训练稳定且早期经验成功;Flow Matching 则需要 ODE、continuous flow、optimal transport、rectified flow 等理论与工程共识成熟后才成为主流。
主题归档 · 2026-04-30

从罗福莉访谈看 Agent 时代的技术范式迁移:后训练、长上下文、框架自进化与研究机会

对罗福莉长访谈的技术观点提炼:AI 正从 Chat/Pre-train 主导转向 Agent/Post-train 主导,胜负焦点变为模型、Agent 框架、长上下文、RL Infra 与群体智能的协同演化。
主题归档 · 2026-04-30

数学数据能提升代码能力吗?代码数据能反哺数学推理吗?

数学与代码能力确实存在迁移,但不是简单对称迁移:代码更像形式化执行与工具使用的底座,常常更强地反哺数学;数学数据更强地提升抽象推理与可验证训练信号,对代码的提升依赖任务形态与训练阶段。
主题归档 · 2026-04-30

预训练数据能否像人类教育一样组织?Curriculum Learning、数据混合与 Developmental Pretraining 研究脉络

调研“按人类学习顺序组织预训练数据”的现有研究支撑:从 Bengio 的 Curriculum Learning、自步学习、NMT 中的 competence-based curriculum,到 BabyLM、TinyStories、Textbooks Are All You Need、DoReMi、ODM、Irreducible Curriculum 与最新 LLM 预训练课程实验,分析该想法的证据、边界与可研究机会。
每日调研 · 2026-04-29

2026-04-29 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。
实验分析 · 2026-04-29

Megatron reported TFLOP/s 的真实含义:small SWA、GQA、FP8、CP 与 fused kernel 的分子/分母分析

结合 Liangguang 实际使用的 Megatron 源码,拆解 reported TFLOP/s/GPU 的估算口径,并解释 small SWA、GQA、FP8、Context Parallel 和 fused kernel 分别如何影响 FLOPs 分子与 step time 分母。
论文精读 · 2026-04-29

从事实知识反推模型规模:IKP 论文解读与“价格能否替代知识探针”的小实验

解读 Incompressible Knowledge Probes 如何用长尾事实知识估算黑盒大模型规模,并用 OpenRouter 价格数据检验“能否用模型价格得到类似结论”。
每日调研 · 2026-04-28

2026-04-28 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。

最近调研时间线

把每天的晨读、临时研究和总结放在一个更适合浏览器看的地方
2026-04-30

2026-04-30 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。
2026-04-29

2026-04-29 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。
2026-04-28

2026-04-28 AI/LLM 最新论文与研究热点简报

最近 24-48 小时 AI/LLM/Agent/代码智能相关最新论文与热点进展筛选。
2026-04-21

UMI、Ego-centric 与 EGOScale:机器人数据采集为什么开始从“机器学机器”转向“机器向人学”

从 UMI 到 Ego-centric / EGOScale,行业关注点正在从机器人执行轨迹,转向人类真实作业过程的数据资产。这不只是更便宜的数据采集,而是训练范式的变化。
2026-04-20

2026-04-20 Hugging Face Daily Papers 早读

今天的 Hugging Face Daily Papers 早读,筛前 10 篇并压成适合浏览器阅读的高密度版本。
2026-03-23

2026-03-23 学习记录:Better & Faster Large Language Models via Multi-token Prediction

Better & Faster MTP 论文核心思想与价值。

内容结构

适合长期积累

每日调研

按日期查看每天的研究任务、晨间论文早读和临时分析。

论文精读

单篇论文的详细解读、背景判断和链接整理。

主题归档

围绕长期关注方向,持续沉淀技术主题笔记。

实验分析

沉淀训练系统、性能复现、源码口径核查和实验结果分析。

最近主题

更像知识库入口

AI Infra 新探索:克服 Coding Agent 推理的 Scaling Pain,到底讲了什么?

解读 GLM 关于 Coding Agent 推理 Scaling Pain 的技术博客:为什么高并发长上下文场景会导致乱码、复读、生僻字,PD 分离与 HiCache 中的 KV Cache 竞态如何发生,以及 LayerSplit 如何缓解长上下文 Prefill 瓶颈。

为什么 Diffusion 先流行,而 Flow Matching 到最近才大量使用?

解释为什么生成模型历史上先由 Diffusion 取得主导,而不是更直观的 Flow Matching:Diffusion 继承了去噪、score matching 和概率建模传统,训练稳定且早期经验成功;Flow Matching 则需要 ODE、continuous flow、optimal transport、rectified flow 等理论与工程共识成熟后才成为主流。

从罗福莉访谈看 Agent 时代的技术范式迁移:后训练、长上下文、框架自进化与研究机会

对罗福莉长访谈的技术观点提炼:AI 正从 Chat/Pre-train 主导转向 Agent/Post-train 主导,胜负焦点变为模型、Agent 框架、长上下文、RL Infra 与群体智能的协同演化。

数学数据能提升代码能力吗?代码数据能反哺数学推理吗?

数学与代码能力确实存在迁移,但不是简单对称迁移:代码更像形式化执行与工具使用的底座,常常更强地反哺数学;数学数据更强地提升抽象推理与可验证训练信号,对代码的提升依赖任务形态与训练阶段。

预训练数据能否像人类教育一样组织?Curriculum Learning、数据混合与 Developmental Pretraining 研究脉络

调研“按人类学习顺序组织预训练数据”的现有研究支撑:从 Bengio 的 Curriculum Learning、自步学习、NMT 中的 competence-based curriculum,到 BabyLM、TinyStories、Textbooks Are All You Need、DoReMi、ODM、Irreducible Curriculum 与最新 LLM 预训练课程实验,分析该想法的证据、边界与可研究机会。

On-Policy Distillation:从模型压缩到 Agent 自我进化的蒸馏范式

On-Policy Distillation 将蒸馏从静态教师数据推进到学生自身行为分布上的密集监督;它不仅是 RL 的稳定替代形态,也是 DeepSeek-V4 式多专家合版、coding agent 经验吸收和 personal agent 自我进化的关键桥梁。

大模型预训练数据准备中的去重算法:从 ExactSubstr 到 MinHash LSH 与语义去重

系统梳理大模型预训练数据去重的主流算法脉络,重点解释当前最常用、最有效的 MinHash LSH 近重复去重,以及 ExactSubstr、后缀数组、语义去重和 GPU 加速工具链的适用边界。

OpenVLA 详解:开源 VLA 如何把视觉语言模型变成机器人策略

详细拆解 OpenVLA 的技术动机、模型结构、训练数据、动作表示、实验结果、微调部署路径与局限性,解释它为什么是 VLA 路线走向开放可复现的重要节点。

实验分析

训练系统与性能复现

Megatron reported TFLOP/s 的真实含义:small SWA、GQA、FP8、CP 与 fused kernel 的分子/分母分析

结合 Liangguang 实际使用的 Megatron 源码,拆解 reported TFLOP/s/GPU 的估算口径,并解释 small SWA、GQA、FP8、Context Parallel 和 fused kernel 分别如何影响 FLOPs 分子与 step time 分母。

重要收藏

按个人重要性 1~5 星收藏
★★★★★★★★★☆★★★☆☆★★☆☆☆★☆☆☆☆
★★★★★ · 主题归档 · 2026-04-30

为什么 Diffusion 先流行,而 Flow Matching 到最近才大量使用?

解释为什么生成模型历史上先由 Diffusion 取得主导,而不是更直观的 Flow Matching:Diffusion 继承了去噪、score matching 和概率建模传统,训练稳定且早期经验成功;Flow Matching 则需要 ODE、continuous flow、optimal transport、rectified flow 等理论与工程共识成熟后才成为主流。
★★★★★ · 主题归档 · 2026-04-30

从罗福莉访谈看 Agent 时代的技术范式迁移:后训练、长上下文、框架自进化与研究机会

对罗福莉长访谈的技术观点提炼:AI 正从 Chat/Pre-train 主导转向 Agent/Post-train 主导,胜负焦点变为模型、Agent 框架、长上下文、RL Infra 与群体智能的协同演化。
★★★★★ · 主题归档 · 2026-04-30

数学数据能提升代码能力吗?代码数据能反哺数学推理吗?

数学与代码能力确实存在迁移,但不是简单对称迁移:代码更像形式化执行与工具使用的底座,常常更强地反哺数学;数学数据更强地提升抽象推理与可验证训练信号,对代码的提升依赖任务形态与训练阶段。
★★★★★ · 主题归档 · 2026-04-30

预训练数据能否像人类教育一样组织?Curriculum Learning、数据混合与 Developmental Pretraining 研究脉络

调研“按人类学习顺序组织预训练数据”的现有研究支撑:从 Bengio 的 Curriculum Learning、自步学习、NMT 中的 competence-based curriculum,到 BabyLM、TinyStories、Textbooks Are All You Need、DoReMi、ODM、Irreducible Curriculum 与最新 LLM 预训练课程实验,分析该想法的证据、边界与可研究机会。
★★★★★ · 实验分析 · 2026-04-29

Megatron reported TFLOP/s 的真实含义:small SWA、GQA、FP8、CP 与 fused kernel 的分子/分母分析

结合 Liangguang 实际使用的 Megatron 源码,拆解 reported TFLOP/s/GPU 的估算口径,并解释 small SWA、GQA、FP8、Context Parallel 和 fused kernel 分别如何影响 FLOPs 分子与 step time 分母。