北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页

3.0 2025-05-13 64 0 9330 KB 76 页 PDF
侵权投诉
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页
摘要:

DeepSeek-R1 \Kimi 1.5 及类强推理模型开发解读北大对齐小组陈博远北京大学2022级“通班”主要研究方向:大语言模型对齐与可扩展监督https://cby-pku.github.io/https://pair-lab.com/2Outline➢DeepSeek-R1 开创RL加持下强推理慢思考范式新边界➢DeepSeek-R1 Zero 及 R1 技术剖析➢Pipeline 总览 \DeepSeek-V3 Base \DeepSeek-R1 Zero 及 R1 细节分析➢RL 算法的创新:GRPO及其技术细节➢DeepSeek-R1 背后的Insights & Takeaways:RL加持下的长度泛化 \推理范式的涌现➢DeepSeek-R1 社会及经济效益➢技术对比探讨➢STaR-based Methods vs. RL-based Methods 强推理路径对比 (DS-R1 \Kimi-1.5 \o-series) ➢蒸馏vs. 强化学习驱动:国内外现有各家技术路线对比分析及Takeaways ➢PRM & MCTS 的作用➢从文本模态到多模态➢其他讨论:Over-Thinking 过度思考等➢未来方向分析探讨➢模态穿透赋能推理边界拓展:Align-DS-V➢合成数据及Test-Time Scaling: 突破数据再生产陷阱➢强推理下的安全:形式化验证Formal Verification \审计对齐 Deliberative Alignment➢补充拓展:DeepSeek-V3 解读3DeepSeek-R1 开创RL加持下强推理慢思考范式新边界➢OpenAI o1 开启后训练 Post-Training 时代下的RL新范式:后训练扩展律 Post-Training Scaling Law➢DS-R1 独立发现了一些通往o1路上的核心理念,并且效果还好到受到了OpenAI 的认可➢如何通过有效的 Test-Time Scaling 和 Train-Time Scaling 提升模型的推理能力?➢得益于纯大规模强化学习,DeepSeek-R1 具备强大推理能力与长文本思考能力,继开源来备受关注。➢DeepSeekR1-Zero 和 R1的出现再次证明了强化学习的潜力所在:➢R1-Zero 从基础模型开始构建,完全依赖强化学习,而不使用人类专家标

展开>> 收起<<
北京大学2025年DeepSeek-R1及类强推理模型开发解读报告76页

共 76 页,预览3页

还剩73页未读, 继续阅读

声明:企商查报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
作者: 分类: 属性:76 页 大小:9330 KB 格式:PDF 时间:2025-05-13

开通VIP享超值会员特权

  • 多端同步记录
  • 高速下载文档
  • 免费文档工具
  • 分享文档赚钱
  • 每日登录抽奖
  • 优质衍生服务
/ 3
客服
关注