1 月 22 日消息,Stability AI 日前发布新闻稿,公布了一款名为 Stable LM 2 1.6B 的 AI“小模型”,这是该公司今年推出的第二款模型,号称是“自家迄今以来最为强大的小语言 AI 模型”。

从新闻稿中得知,这款 AI 模型支持英语、西班牙语、德语、意大利语、法语等 7 种语言,拥有“体积小、性能高效”特点,并号称在“安全透明的环境下训练而成”。

Stability AI 声称,这款 Stable LM 2 1.6B 模型在大多数基准测试中均优于其他参数低于 20 亿个的小语言模型,在此前测试中已经胜过微软的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama1.1B 及 Falcon 1B

此外,Stability AI 声称这款模型硬件门槛较低,可以在低功耗设备上稳定运行,旨在让开发人员和爱好者能够快速进行实验和迭代。

不过新闻稿中同时提到,由于 Stable LM 2 1.6B 是一款小模型,因此可能会出现“高幻觉率”等潜在问题,因此使用这款模型的用户必须为这款模型负责。

目前相关模型已经发布于 Hugging Face ,需要 Stability AI 会员资格,感兴趣的小伙伴可以点此访问模型页面。