大家好,几周前我写了一个VS Code扩展,它使用特殊的提示技术来请求大型模型在光标位置进行FIM(中间填充)补全。通过使用完整的模型而不是为了毫秒级标签补全而优化的模型,我们能得到100%准确的补全。该扩展还总是发送在文件树上下文(和所有打开的文件)中选中的内容。要进行设置,请获取https://marketplace.visualstudio.com/items?itemName=robertpiosik.gemini-coder。转到设置JSON并添加:“geminiCoder.providers”: [ { “name”: “DeepSeek”, “endpointUrl”: “https://api.deepseek.com/v1/chat/completions”, “bearerToken”: “[API KEY]”, “model”: “deepseek - chat”, “temperature”: 0, “instruction”: "" } ]。更改默认模型并使用“Gemini Coder…”命令(更多信息在扩展的自述文件中)。直到昨天我还在使用Gemini Flash 2.0和1206,但DeepSeek要好得多!顺便说一下,使用“Gemini Coder: 将自动补全提示复制到剪贴板”命令,你可以切换到网页版本并节省一些钱。顺便说二下,静态上下文(文件树检查)总是在打开文件和当前文件之前添加,这样你就会命中DeepSeek的缓存,并且几乎不需要为输入令牌付费。
讨论总结
[原帖分享了一个利用DeepSeek V3的VS Code扩展及其使用方式,评论者们对这个扩展表现出了兴趣,主要讨论集中在与其他类似工具的比较、自身功能的探讨以及DeepSeek温度设置对编码表现的影响等方面,整体氛围较为积极友好,大家积极分享看法并提出疑问]
主要观点
- 👍 [原帖提到的扩展很实用]
- 支持理由:[多位评论者表示这个工具很棒、很有趣、会去尝试使用]
- 反对声音:[无]
- 🔥 [对扩展与Cursor关系的好奇]
- 正方观点:[有人猜测与Cursor存在某种关系,引发了相关讨论]
- 反方观点:[原帖作者解释了与Cursor使用模型的区别]
- 💡 [工具不具备Copilot自动补全展示功能]
- [评论者指出在使用时发现与Copilot在自动补全展示方面存在差异]
- 💡 [质疑DeepSeek使用温度0会导致模型在编码等方面表现差]
- [认为模型在温度为0时在编码等方面表现不佳]
- [有人指出文档推荐温度为0、随机性在编码领域不好、温度0意味着贪心等观点进行反驳]
- 💡 [喜欢扩展发送所有打开文件的功能]
- [评论者明确表示喜欢这个功能]
金句与有趣评论
- “😂 Wow this is nifty.”
- 亮点:[简洁地表达了对扩展的赞赏]
- “🤔 I’m super interested in this as well!”
- 亮点:[体现出对扩展的兴趣]
- “👀 I use my extension exclusively, it’s better than anything else in every situation to be honest.”
- 亮点:[原帖作者对自己扩展充满自信]
- “🤔 So I’ve been trying to use and this doesn’t have any thing like copilot where autocompletions are auto generated and I can see them before accepting them?”
- 亮点:[指出与Copilot在自动补全展示上的差异]
- “👀 Why temperature 0? I find models are worse at coding (and everything else really) at temperature 0.”
- 亮点:[对DeepSeek温度设置提出疑问]
情感分析
[总体情感倾向为积极,主要分歧点在于DeepSeek温度设置是否合理,可能原因是不同用户对模型的理解和使用场景的不同,有的从文档推荐出发,有的从实际编码中的随机性影响等方面考虑]
趋势与预测
- 新兴话题:[前端聊天使用的温度设置可能会引发后续讨论]
- 潜在影响:[如果这个扩展被更多人接受使用,可能会对代码编写效率、相关工具的发展产生一定影响]
详细内容:
标题:利用 DeepSeek V3 实现 FIM 效果超棒
最近,Reddit 上出现了一个关于使用 DeepSeek V3 进行 FIM(Fill-in-the-middle)的热门讨论。该帖子获得了众多关注,引发了热烈的讨论。
原帖作者介绍了自己编写的 VS Code 扩展,称通过特殊的提示技术,利用大型模型在光标位置请求 FIM 完成,能实现 100%准确的完成效果。还提供了设置的详细步骤和相关链接。
讨论的焦点主要集中在以下几个方面:
有人表示这个扩展就像是超级开源免费的精简版 Cursor,并询问 Ollama 端点是否支持。
有人对其很感兴趣,称自己目前使用 continue.dev,想看看有没有更好的选择。
原帖作者称自己一直使用这个扩展,认为在任何情况下都比其他的好,通过按需完成的方式没有干扰。
有人询问在 continue 中用于自动完成的模型和配置,还提到 Copilot 最近变慢,对自托管的模型不太满意。
有人质疑为什么设置温度为 0,有人解释这是文档推荐的,也有人认为温度 0 意味着贪婪,可能更高的温度在某些任务上表现更好。
讨论中的共识在于大家对这个新的代码工具都充满了好奇和期待。
特别有见地的观点如原帖作者强调按需请求完成具有控制花费的优势。
总之,这个关于 DeepSeek V3 的讨论展现了大家对新代码工具的关注和深入思考,也为开发者们提供了更多的选择和思路。
感谢您的耐心阅读!来选个表情,或者留个评论吧!