Hugging Face发布SmolLM系列小模型
科技IT 2024-07-22 yu66841
7月22日消息,Hugging Face日前推出了SmolLM,这是一款全新的紧凑型语言模型系列,其中包含1.35 亿、3.6亿和17亿参数模型,旨在容纳各种计算资源。
Hugging Face公司SmolLM项目首席机器学习工程师Loubna Ben Allal表示:“我们不需要为每项任务都建立大模型,就像我们不需要一个破碎球在墙上钻孔一样。为特定任务设计的小模型可以完成很多工作。”
体量最小的SmolLM-135M模型尽管在训练阶段使用的token较少,但表现仍然优于Meta的MobileLM-125M。SmolLM-360M号称在性能上超越了所有参数低于5亿的模型。旗舰级模型SmolLM-1.7B则在多项基准测试中击败了微软的Phi-1.5、Meta的MobileLM-1.5B等模型。
值得一提的是,Hugging Face还将整个开发过程开源,从数据管理到训练步骤。这种透明度与公司对开源价值观和可重复研究的承诺相一致。
这些模型的出色表现归功于精心策划的训练数据。SmolLM基于Cosmo语料库构建,其中包括Cosmopedia v2(合成教科书和故事)、Python Edu(教育Python示例)和FineWeb Edu(精心策划的教育网络内容)。
“我们使用SmolLM获得的性能表明了数据质量的重要性。我们开发了创新的方法来精心策划高质量的数据,使用网络和合成数据的组合,从而创建了最好的小模型。”Loubna Ben Allal说道。
The End
相关阅读
- 安森美携新款智能图像感知方案亮相Vision China(上海)2025
- 比特网早报:Anthropic融资130亿美元,OpenAI调查ChatGPT无法显示回复的问题
- 百家跨国公司看中国 意法半导体曹志平:持续完善在华产业链部署
- Akamai:亚太地区金融机构面临更高的网络钓鱼威胁
- Canalys:2024年中国大陆的云服务支出预计增长18%
- 【600余考场,5.2万余考生】佳发教育树立英语听说数字化考试新标杆!
- 加速企业AI发展,Cloudera宣布推出RAG Studio
- 消息称英伟达暂停生产 H20 芯片,有望推更强的 B30A
- 鲁大师2月新机性能/流畅/AI/久用榜:OPPO折叠先发制人,小米Ultra超大杯登场
- 保障IT系统稳定高效运行?提高韧性是前提