该帖子仅包含一个视频链接(https://llminfo.image.fangd123.cn/videos/1i2ucxu.mp4),无更多可翻译内容
讨论总结
这个讨论源于一个使用DeepSeek做内联编辑的vscode扩展的分享。大家主要关注这个扩展是否会开源、在LLM方面内联编辑如何工作、能否用于其他提供者等话题,多数评论比较积极,少数消极评论也引发了一些争论。
主要观点
- 👍 询问创建者是否开源这个vscode扩展。
- 支持理由:大家对这个项目感兴趣,开源可以共享资源。
- 反对声音:无。
- 🔥 认为开源与否取决于是否有人想要以及是否有更好的解决方案。
- 正方观点:根据需求和项目情况决定开源与否很合理。
- 反方观点:无。
- 💡 认为开源有助于提供学习资源。
- 解释:开源后可以让其他人学习其中的技术等。
- 💡 小项目开源可用于参考。
- 解释:相比复杂项目,小项目开源作为参考很方便。
- 💡 对原帖中的vscode扩展表示认可。
- 解释:以简单的“based!”表达了积极态度。
金句与有趣评论
- “😂 And will you open source it?”
- 亮点:直接开启关于开源的讨论。
- “🤔 It’s simply good to find resources to learn from, tbh”
- 亮点:指出开源可提供学习资源的价值。
- “👀 That’s stupid af. Use the freaking API”
- 亮点:这是少数的消极且有争议的观点。
- “🤔 learning isn’t stupid. You don’t just magically become a code wizard. it takes lots of practice.”
- 亮点:对消极观点的有力反驳,强调学习的重要性。
情感分析
总体情感倾向是积极的,多数人对这个vscode扩展感兴趣,积极询问开源、使用方式等。主要分歧点在于有人认为创建这个扩展很愚蠢应直接用API,可能的原因是部分人更注重实用的解决方案而忽视了创造过程中的学习价值。
趋势与预测
- 新兴话题:这个vscode扩展能否和更多的大型语言模型结合使用。
- 潜在影响:如果开源成功,可能会给其他开发者提供学习范例,对vscode扩展开发领域有一定的推动作用。
详细内容:
标题:关于新创建的 vscode 扩展的热门讨论
在 Reddit 上,有一个关于创建了一个使用 deepseek 进行内联编辑的 vscode 扩展的帖子引发了广泛关注。该帖子还附上了相关视频链接:https://llminfo.image.fangd123.cn/videos/1i2ucxu.mp4 。此贴获得了众多的评论和互动。
讨论的焦点主要集中在以下几个方面:
有人询问是否会开源,开发者表示只有在大家需要的情况下才会考虑,同时也认为市面上有更好的解决方案。有人觉得能找到学习的资源总是好事。还有人表示只要不影响目标,做这样的项目总是好的,有时这种较小的项目反而比复杂的如 Cody 或 Cline 更有参考价值。有人直言想要这个扩展。
有人询问为什么不放在 GitHub 上,开发者随后分享了 GitHub 链接:https://github.com/randomaicode/VSCODE-INLINE ,并表示要确保配置好对应的 API 或 Ollama。
有人好奇内联编辑在 llm 端是如何工作的,开发者解释说可以遵循 Ollama 中的提示模板或使用更强的提示。如果像视频中那样借助 llm 提供商的聊天功能,可以采取一到两种方式,比如选择具有良好提示依从性的强大模型,或者通过第二个 7b 或 3b 代理运行更改以去除格式化文本并仅输出代码,然后将代码粘贴到选定的行中,同时要给大模型提供足够的上下文。
有人询问这个扩展能否为其他提供商进行修改,开发者称其为任何具有 openAPI 端点的 llm 设计。
有人认为这很愚蠢,应该使用 API,但也有人反驳说学习不是愚蠢的,成为代码高手需要大量练习。
在这场讨论中,大家对于是否开源、分享途径以及扩展的适用性等方面存在不同的看法。但也有共识,即认为学习和探索新的技术是有价值的。而那些独特且有见地的观点,如开发者详细的技术解释,丰富了整个讨论,让大家对这个 vscode 扩展有了更深入的了解。
感谢您的耐心阅读!来选个表情,或者留个评论吧!