Hugging Face上的AI模型数量突破100万个

Yu |  2024-09-27

  9月27日消息,AI托管平台Hugging Face收录的AI模型数量突破100万个,这标志着机器学习领域迅速扩张的一个重要时刻。AI模型是一种计算机程序(通常使用神经网络),通过数据训练来执行特定任务或进行预测。这个平台最初在2016年作为一个聊天机器人应用启动,然后在2020年转型成为一个开源的AI模型中心,现在为开发者和研究人员提供了一系列工具。

  机器学习领域代表了一个比大型语言模型(LLMs)如ChatGPT所依赖的那种更大的世界。在X上的一篇帖子中,Hugging Face的首席执行官Clément Delangue谈到了他的公司托管许多高调的AI模型,如“Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi”,但还有“其他999,984个”。

  Delangue表示,原因源于定制化。“针对你的使用案例、你的领域、你的语言、你的硬件以及通常的限制,更小的、专门定制的优化模型更好。实际上,很少有人意识到的是,Hugging Face上几乎有同样多的模型只供公司私下构建AI,专门用于他们的使用案例。”

  Hugging Face转变为主要的AI平台,随着整个科技行业AI研究和开发的加速步伐而来。仅几年内,该站点托管的模型数量随着对该领域兴趣的增加而急剧增长。在X上,Hugging Face的产品工程师Caleb Fahlgren发布了一张关于平台上每个月创建的模型数量的图表(并附上了其他图表的链接),他说:“模型的数量逐月呈指数级增长,而且九月份甚至还没结束。”

查看更多内容
正在加载
第三方账号登录
X
发布