小红书开源首个大模型 预训练未使用合成数据

小红书开源了首个大模型dots.llm1,小红书方面告诉《科创板日报》,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。

文章来源:科创板日报

免责声明:本文为本网站出于传播信息之目的进行转载发布,不代表本网站的观点及立场。本文所涉文、图、音视频等资料之一切权力和法律责任归材料提供方所有和承担。本网站对此咨询文字、图片等所有信息的真实性不作任何保证或承诺,亦不构成任何购买、投资等建议,据此操作者风险自担。

上一篇 2025年6月10日 09:19
下一篇 2025年6月10日 09:29

相关推荐