聚焦科学传播 弘扬科学精神
APP下载
扫码下载APP
融媒矩阵
  • 人民号
  • 科普号
  • 北京号
  • 微博号
  • 头条号
  • 腾讯号
  • 百度号
  • 央视频号
  • 抖音号
  • 微信号
QR Code
当前位置: 首页 正文
北大杨仝团队发布FairyR1模型:5%参数量数学和代码能力超越满血DeepSeek
2025-05-26 来源:网络 阅读量:6647

北京大学杨仝教授团队近期发布了其在高效大型语言模型研究方向的一项新成果——FairyR1-32B模型。该模型基于DeepSeek-R1-Distill-Qwen-32B基座,通过结合微调与模型合并技术构建。研究探索了在参数量大幅减少的情况下,模型在特定任务上实现与更大模型相当甚至更优性能的可能性。该研究得到了国家自然科学基金委项目(624B2005, 62372009)的资助。FairyR1-32B模型已在huggingface开源:https://huggingface.co/PKU-DS-LAB/FairyR1-32B。

FairyR1-32B模型是在团队前期TinyR1工作基础上进行的进一步探索,沿用了“分合蒸馏”的研究思路,提出了多种改进方法,包括自我合并、多教师交叉蒸馏、轻蒸馏等方法,并在数据处理进行了优化,模型精度有了显著提升。

本次工作重点改进了蒸馏数据的构建流程,对来源于AI-MO/NuminaMath-1.5(数学)和open-thoughts/OpenThoughts-114k(代码)等数据集的原始数据,通过多个“教师模型”生成答案,随后对问答数据进行精心筛选、结构调整与思维链优化,并进行多阶段筛选。筛选过程包括基于答案的正确性验证(针对数学数据),以及基于长度的筛选(数学数据保留2k-8k tokens范围,代码数据保留4k-8k tokens范围),最终构建了更具针对性的约6.6k条数学数据和约3.8k条代码数据用于训练。

在模型结构方面,研究团队尝试训练两个领域(数学和代码)的专业模型进行合并,旨在进一步优化流程和资源消耗。这两个专业模型在一致的训练参数下(例如相同的学习率和批次大小)独立训练约5个周期后,利用AcreeFusion工具进行了合并。在多个公开基准测试中,FairyR1展现出了在低参数量下的竞争力表现。以下为FairyR1与DeepSeek-R1-671B及DeepSeek-R1-Distill-Qwen-32B在部分基准上的得分对比:

从测试结果可以看出,FairyR1-32B在AIME 2025和LiveCodeBench基准上得分略高于DeepSeek-R1-671B,在AIME 2024上表现接近。在GPQA-Diamond科学基准上,FairyR1的得分低于DeepSeek-R1-671B。这些结果表明,FairyR1在采用DeepSeek-R1-Distill-Qwen-32B基座并经过特定技术处理后,能够在约5%参数量的情况下,在数理和编程等领域实现与大型模型相当或略优的性能水平,但在科学等其他领域可能存在差距。这项工作探索了通过优化的数据处理和模型融合技术,在保证特定任务性能的前提下,大幅降低模型规模和潜在推理成本的可能性。

北京大学杨仝教授团队表示:“FairyR1-32B模型是我们探索高效大型语言模型技术路线的阶段性成果。通过对蒸馏和合并方法的改进,我们初步验证了在有限资源下实现高性能模型的可行性。”

团队成员:李旺、周俊廷、刘文睿、姚一伦、王融乐、杨仝

免责声明:该文章系转载,所涉内容非本站(号)观点,不构成投资、消费建议,仅供读者参考。文字和图片均由第三方提供,一切法律责任由提供方负责。

典赞时刻·2024首都科普年度榜单发布
2024年我和妈妈学科学
医路·新青年:述说新时代首都青年医者故事
要闻关注
谱写科技强国建设的“北京篇章”——北京国际科技创新中心建设纪实
北京市发布24条举措促进高精尖产业对外开放
35部图书获资金支持!北京市科学技术协会发布2025年科普创作出版资金资助项目名单
机器人“顶流”组团亮相科博会,它们除了跑马还有哪些本领?
推荐阅读
君乐宝奶粉“脑体双优”模型权威认证达国际领先水平君乐宝12年的梦想实现了
2025-05-28 网络
质子大模型领航!美中嘉和(02453.HK)开启肿瘤诊疗智能新纪元
2025-05-28 网络
从对弈到对话:京东大模型给下棋机器人安上百科“大脑”
2025-05-23 网络
京东大模型:加速深度思考,铺开产业级应用
2025-05-22 网络
QR Code
扫码分享当前页面