嗨,r/LocalLLaMA社区!
由Reverb 7b的同一创造者,我们推出Chirp 3b。
我们很高兴介绍我们的最新模型:Chirp - 3b!Ozone AI团队在这个模型上倾注了很多心血,我们认为这是3B模型性能方面的一大进步。Chirp - 3b是在来自GPT - 4o的5000多万个标记的蒸馏数据上进行训练的,从一个坚实的基础模型进行微调以带来强大的能力。
基准测试结果出来了,Chirp - 3b表现出色!它在MMLU Pro和IFEval上都取得了显著的成果,超出了我们对这个规模模型的预期。查看详情:
MMLU Pro
学科 | 平均准确率 |
---|---|
生物学 | 0.6234 |
商业 | 0.5032 |
化学 | 0.3701 |
计算机科学 | 0.4268 |
经济学 | 0.5284 |
工程学 | 0.3013 |
健康 | 0.3900 |
历史 | 0.3885 |
法律 | 0.2252 |
数学 | 0.5736 |
其他 | 0.4145 |
哲学 | 0.3687 |
物理学 | 0.3995 |
心理学 | 0.5589 |
总体平均 | 0.4320 |
这比基础模型提高了9个百分点,相当惊人!
IFEval
72%
这些提升使得Chirp - 3b在同类中成为一个引人注目的选择。(更多的基准测试即将到来!)
模型卡片与下载:https://huggingface.co/ozone - research/Chirp - 01
我们热衷于推进开源大型语言模型(LLM),Chirp - 3b是这一进程中值得骄傲的一部分。我们正在研发更多的模型,包括2B及更大版本的,所以请持续关注!
我们非常期待得到您的反馈!下载Chirp - 3b,试用一下,然后告诉我们它对您来说性能如何。您的输入有助于我们不断改进。
感谢支持,我们迫不及待地想看到您用Chirp - 3b创造出什么!
讨论总结
[这是一个关于Chirp - 3b模型的讨论。其中包含了对模型相关资源链接的疑问、故障反馈和补充信息,如gguf相关的疑问与回应、Hugging Face链接的故障与恢复、对Q8版本的请求、MLX版本的补充说明等,整体讨论氛围较为平静]
主要观点
- 👍 对Chirp - 3b模型有疑问,询问是否与gguf有关
- 支持理由:[从提问内容判断]
- 反对声音:[无]
- 👍 指出Chirp - 3b模型介绍中的Hugging Face链接存在问题
- 支持理由:[用户发现链接不可用]
- 反对声音:[无]
- 👍 希望作者上传Chirp - 3b的Q8版本
- 支持理由:[用户自身需求]
- 反对声音:[无]
- 👍 存在Chirp - 3b的MLX版本且给出查看网址
- 支持理由:[为有需求者提供信息]
- 反对声音:[无]
金句与有趣评论
- “🤔 AlgorithmicKing: gguf?”
- 亮点:[直接提出关于模型与gguf关系的疑问]
- “😕 yami_no_ko: The hf link is broken.”
- 亮点:[指出资源链接存在问题]
- “🙏 Nid_All: Could you please Upload the Q8 version”
- 亮点:[表达对特定版本的需求]
- “👍 BaysQuorv: Made MLX versions, see bottom of this: [https://huggingface.co/collections/alexgusevski/mlx - models - 67b7154c5ca6113f9606d539](https://huggingface.co/collections/alexgusevski/mlx - models - 67b7154c5ca6113f9606d539)”
- 亮点:[提供补充版本信息]
情感分析
[总体情感倾向为中性,没有明显的分歧点。主要是针对Chirp - 3b模型相关事务进行理性的询问、反馈和补充信息,未涉及到带有强烈情感倾向的争论内容]
趋势与预测
- 新兴话题:[可能会出现更多关于Chirp - 3b模型不同版本性能对比的讨论]
- 潜在影响:[有助于Chirp - 3b模型的优化和完善,提高用户对该开源LLM的了解和使用]
详细内容:
标题:Ozone AI 推出 Chirp 3b 模型,引发 Reddit 热议
在 Reddit 的 LocalLLaMA 板块,一则关于 Ozone AI 推出新模型 Chirp 3b 的帖子引发了众多关注。该帖子获得了较高的热度,吸引了大量用户参与讨论。
原帖主要介绍了 Chirp 3b 模型,称其由 Ozone AI 团队精心打造,是在 Reverb 7b 的基础上推出的新作。该模型训练使用了超过 5000 万的 GPT-4o 蒸馏数据,并经过精细调整,在 3B 性能方面有显著提升。帖子还展示了该模型在 MMLU Pro 和 IFEval 上的出色表现,如在 MMLU Pro 中总体平均准确率达到 0.4320,相比基础模型提升 9 个百分点;在 IFEval 中达到 72%。同时,提供了模型卡和下载链接:https://huggingface.co/ozone-research/Chirp-01 。
帖子引发的讨论方向主要集中在模型的性能表现、不同版本的需求以及链接的可用性等方面。文章将要探讨的核心问题包括:Chirp 3b 模型的实际应用效果如何,用户对其性能提升的看法,以及相关链接的稳定性和实用性。
讨论焦点与观点分析: 有人对模型是否支持 gguf 格式提出疑问。有用户分享链接https://huggingface.co/ozone-research/Chirp-01-Q4_K_M-GGUF进行说明。 有人希望能上传 Q8 版本。 有用户反映 hf 链接无法使用,还有人表示很快会修复。有人表示要尝试使用该模型。 也有用户分享了 MLX 版本的相关链接https://huggingface.co/collections/alexgusevski/mlx-models-67b7154c5ca6113f9606d539 。
讨论中的共识在于大家对新模型充满期待,希望能有更多更好的版本和稳定可用的链接。一些独特的观点如对特定版本的需求以及对链接问题的反馈,丰富了讨论内容,让大家更全面地看待模型的推出和相关情况。
感谢您的耐心阅读!来选个表情,或者留个评论吧!