原贴链接

Zed最近创建了他们自己的微调版本Qwen2.5 - Coder - 7B([阅读更多](https://zed.dev/blog/edit - prediction)),它在Zed中运行得非常好。由于该模型是开源的,我试图从[Huggingface](https://huggingface.co/zed - industries/zeta)(通过LM Studio)下载它,并在VS Code中使用Continue扩展来使用它,但效果非常差,给出的建议完全是无稽之谈。标记大小为32768。模型名称为zed - industries_zeta,量化为Q6_K_L。这里有一个例子,第一张截图来自VS Code,我显然是在试图在我的端点设置分页,自动补全建议在文件中间导入东西(而且是我已经在文件开头导入过的东西)。然而Zed马上就能给出正确的代码。这只是一个例子,但几乎每个建议都是这样的。这是在LM Studio中运行模型的截图。是我做错了什么吗?是Continue扩展有问题吗?

讨论总结

原帖提到Zed的新模型Qwen2.5-Coder-7B在Zed中运行良好,但在VS Code的Continue扩展中表现很差,询问是否是自己操作有误或Continue扩展有问题。评论主要集中在几个方面,一是关于Zeta模型与Continue的适配性问题,包括当前存在适配困难以及希望未来能有适配措施;二是对Zed的看法,有提醒警惕其先免费试用后撤回功能的,也有认为其开源透明不存在这种问题的。整体讨论氛围较为理性,大家从不同角度表达观点。

主要观点

  1. 👍 Zeta与Continue存在适配问题
    • 支持理由:原帖中Zed模型在Zed运行良好但在VS Code的Continue扩展运行糟糕,评论指出Continue的FIM式支持不适合Zeta。
    • 反对声音:无。
  2. 🔥 警惕Zed先免费后撤回功能的做法
    • 正方观点:akerro提醒大家小心,因为有先试用后撤回的可能。
    • 反方观点:Awwtifishal认为只要开源且能本地构建就不用担心,coder543指出Zed开发者已明确未来付费且模型开源透明不存在问题。
  3. 💡 希望Zeta能被纳入Continue或者有适配扩展
    • 解释:当前Zeta在VS Code的Continue中运行不好,所以希望能被纳入或者有适配扩展来解决问题。

金句与有趣评论

  1. “😂 Zeta是一种新的代码完成模型,一个Continue的FIM风格支持所不期望的模型。”
    • 亮点:简洁地指出了Zeta与Continue的不适配性。
  2. “🤔 Be careful and don’t get used to Zed, they give features to try for free, then you get used to it and they pull the rug from under your feet.”
    • 亮点:表达了对Zed先免费试用后可能撤回功能的担忧。
  3. “👀 The Zed developers have clearly communicated that they want to offer a paid, hosted Zeta service in the future. At the same time, they released the model weights under an open license. It’s hard to beat that level of transparency. There is no rug pull, and nothing to prevent someone from hosting the model themselves.”
    • 亮点:从Zed开发者的角度说明其付费和开源情况,反驳了对Zed的质疑。

情感分析

总体情感倾向较为理性中立。主要分歧点在于对Zed的看法,一方警惕Zed先免费试用后撤回功能的做法,另一方认为Zed开源透明且已表明未来付费计划不存在这种问题。可能的原因是不同用户关注的重点不同,有的更在意是否会失去免费使用的权益,有的更关注其开源性和开发者的声明。

趋势与预测

  • 新兴话题:如果Zed未来推出付费服务,用户的接受度以及其在市场中的竞争力。
  • 潜在影响:如果Zed付费服务被市场接受,可能会影响其他类似产品的商业模式,促使更多开源项目考虑付费服务的模式。

详细内容:

标题:Zed 的新 LLM 在自家 IDE 表现出色,在 VS Code 中却不尽人意,引发热烈讨论

Zed 新推出了其微调版本“Qwen2.5-Coder-7B”,相关帖子在 Reddit 上引起了广泛关注,获得了众多点赞和大量评论。原帖指出该模型在 Zed 中运行良好,但通过下载在 VS Code 中的“Continue”扩展使用时效果极差,还提供了相关示例和模型参数等信息。

这一话题引发了多个焦点讨论。有人认为 Zeta 是新型代码补全模型,“Continue”的 FIM 式支持无法适应它,期待能被纳入“Continue”或有替代扩展。也有人表示不知道是否有本地自动补全最佳的 LLM 排行榜,因为大多数体验糟糕。

有人提出还没见过关于它的好的基准测试,推荐尝试 Qwen2.5 - Coder 的基础模型或者 CodeGemma 的基础模型,认为代码补全更类似于预测下一个标记,使用指令模型进行补全结果会不好,7B 规模差不多是能接受的最大规模。

还有人关心能否在 Zed 中使用本地托管的 zeta,以及模型的提示格式和初始提示等问题。

对于 Zed 的做法,有人提醒要小心,称其先免费提供功能让人习惯,然后可能改变策略。但也有人认为只要所有功能开源且能本地使用就无需担忧,该应用开源,可轻松分叉。有人指出 Zed 开发者已明确表示未来会提供付费托管 Zeta 服务,同时已开放模型权重许可,这种透明度无可挑剔,不存在“釜底抽薪”的情况。

在这场讨论中,各方观点激烈交锋,有人对 Zed 的未来策略表示担忧,也有人对其开源和透明的做法表示认可。而关于模型的实际应用效果和最佳使用方式,仍有待进一步探索和明确。