原贴链接

嗨,r/LocalLLaMA社区!

由Reverb 7b的同一创造者,我们推出Chirp 3b

我们很高兴介绍我们的最新模型:Chirp - 3b!Ozone AI团队在这个模型上倾注了很多心血,我们认为这是3B模型性能方面的一大进步。Chirp - 3b是在来自GPT - 4o的5000多万个标记的蒸馏数据上进行训练的,从一个坚实的基础模型进行微调以带来强大的能力。

基准测试结果出来了,Chirp - 3b表现出色!它在MMLU Pro和IFEval上都取得了显著的成果,超出了我们对这个规模模型的预期。查看详情:

MMLU Pro

学科平均准确率
生物学0.6234
商业0.5032
化学0.3701
计算机科学0.4268
经济学0.5284
工程学0.3013
健康0.3900
历史0.3885
法律0.2252
数学0.5736
其他0.4145
哲学0.3687
物理学0.3995
心理学0.5589
总体平均0.4320

这比基础模型提高了9个百分点,相当惊人!

IFEval

72%

这些提升使得Chirp - 3b在同类中成为一个引人注目的选择。(更多的基准测试即将到来!)

模型卡片与下载:https://huggingface.co/ozone - research/Chirp - 01

我们热衷于推进开源大型语言模型(LLM),Chirp - 3b是这一进程中值得骄傲的一部分。我们正在研发更多的模型,包括2B及更大版本的,所以请持续关注!

我们非常期待得到您的反馈!下载Chirp - 3b,试用一下,然后告诉我们它对您来说性能如何。您的输入有助于我们不断改进。

感谢支持,我们迫不及待地想看到您用Chirp - 3b创造出什么!

讨论总结

[这是一个关于Chirp - 3b模型的讨论。其中包含了对模型相关资源链接的疑问、故障反馈和补充信息,如gguf相关的疑问与回应、Hugging Face链接的故障与恢复、对Q8版本的请求、MLX版本的补充说明等,整体讨论氛围较为平静]

主要观点

  1. 👍 对Chirp - 3b模型有疑问,询问是否与gguf有关
    • 支持理由:[从提问内容判断]
    • 反对声音:[无]
  2. 👍 指出Chirp - 3b模型介绍中的Hugging Face链接存在问题
    • 支持理由:[用户发现链接不可用]
    • 反对声音:[无]
  3. 👍 希望作者上传Chirp - 3b的Q8版本
    • 支持理由:[用户自身需求]
    • 反对声音:[无]
  4. 👍 存在Chirp - 3b的MLX版本且给出查看网址
    • 支持理由:[为有需求者提供信息]
    • 反对声音:[无]

金句与有趣评论

  1. “🤔 AlgorithmicKing: gguf?”
    • 亮点:[直接提出关于模型与gguf关系的疑问]
  2. “😕 yami_no_ko: The hf link is broken.”
    • 亮点:[指出资源链接存在问题]
  3. “🙏 Nid_All: Could you please Upload the Q8 version”
    • 亮点:[表达对特定版本的需求]
  4. “👍 BaysQuorv: Made MLX versions, see bottom of this: [https://huggingface.co/collections/alexgusevski/mlx - models - 67b7154c5ca6113f9606d539](https://huggingface.co/collections/alexgusevski/mlx - models - 67b7154c5ca6113f9606d539)”
    • 亮点:[提供补充版本信息]

情感分析

[总体情感倾向为中性,没有明显的分歧点。主要是针对Chirp - 3b模型相关事务进行理性的询问、反馈和补充信息,未涉及到带有强烈情感倾向的争论内容]

趋势与预测

  • 新兴话题:[可能会出现更多关于Chirp - 3b模型不同版本性能对比的讨论]
  • 潜在影响:[有助于Chirp - 3b模型的优化和完善,提高用户对该开源LLM的了解和使用]

详细内容:

标题:Ozone AI 推出 Chirp 3b 模型,引发 Reddit 热议

在 Reddit 的 LocalLLaMA 板块,一则关于 Ozone AI 推出新模型 Chirp 3b 的帖子引发了众多关注。该帖子获得了较高的热度,吸引了大量用户参与讨论。

原帖主要介绍了 Chirp 3b 模型,称其由 Ozone AI 团队精心打造,是在 Reverb 7b 的基础上推出的新作。该模型训练使用了超过 5000 万的 GPT-4o 蒸馏数据,并经过精细调整,在 3B 性能方面有显著提升。帖子还展示了该模型在 MMLU Pro 和 IFEval 上的出色表现,如在 MMLU Pro 中总体平均准确率达到 0.4320,相比基础模型提升 9 个百分点;在 IFEval 中达到 72%。同时,提供了模型卡和下载链接:https://huggingface.co/ozone-research/Chirp-01 。

帖子引发的讨论方向主要集中在模型的性能表现、不同版本的需求以及链接的可用性等方面。文章将要探讨的核心问题包括:Chirp 3b 模型的实际应用效果如何,用户对其性能提升的看法,以及相关链接的稳定性和实用性。

讨论焦点与观点分析: 有人对模型是否支持 gguf 格式提出疑问。有用户分享链接https://huggingface.co/ozone-research/Chirp-01-Q4_K_M-GGUF进行说明。 有人希望能上传 Q8 版本。 有用户反映 hf 链接无法使用,还有人表示很快会修复。有人表示要尝试使用该模型。 也有用户分享了 MLX 版本的相关链接https://huggingface.co/collections/alexgusevski/mlx-models-67b7154c5ca6113f9606d539

讨论中的共识在于大家对新模型充满期待,希望能有更多更好的版本和稳定可用的链接。一些独特的观点如对特定版本的需求以及对链接问题的反馈,丰富了讨论内容,让大家更全面地看待模型的推出和相关情况。