原贴链接

可100%本地运行(使用Ollama或OpenAI - API端点/vLLM),仅在必要时搜索查询才会调用外部服务(维基百科、arXiv、DuckDuckGo、《卫报》)。可与之前相同的模型(Mistral、DeepSeek等)协作。快速安装:git clone[https://github.com/LearningCircuit/local - deep - research]、pip install - r requirements.txtollama pull mistralpython[main.py]。应大家要求,我给本地深度研究工具添加了几个新功能:1. 自动搜索引擎选择:系统根据查询智能选择最佳搜索源(查询事实选维基百科、查询学术内容选arXiv、相关时选本地文档);2. 本地RAG支持:现在可以为不同主题创建自定义文档集,与在线资源一起搜索自己的文件;3. 行内引用:按要求添加了更好的引用处理;4. 多搜索引擎:现在支持维基百科、arXiv、DuckDuckGo、《卫报》以及本地文档集,如果需要可以轻松添加自己的搜索引擎;5. 网页界面:新的网页用户界面更便于开展研究、跟踪进度和查看结果,由贡献者(HashedViking)创建。感谢所有的贡献、反馈、建议和点赞,这些对工具改进至关重要。[https://github.com/LearningCircuit/local - deep - research]

讨论总结

这个帖子围绕Local Deep Research工具的更新展开讨论。涉及的话题包括工具的使用情况、与OpenAI API及ollama的兼容性、搜索查询优化、工具改进建议、与其他工具的比较、工具协同工作等方面。整体氛围积极,大家积极分享使用体验、提出问题并给出建议。

主要观点

  1. 👍 质疑总是提及ollama,询问是否支持OpenAI API兼容端点
    • 支持理由:在使用项目时ollama的API与OpenAI API不兼容,存在使用问题。
    • 反对声音:无。
  2. 🔥 希望看到Local Deep Research工具的输出演示来决定是否投入时间
    • 正方观点:看到实际运行情况有助于判断是否值得投入时间安装和测试。
    • 反方观点:无。
  3. 💡 提出设置反馈回路让评判模型优化原始模型的建议
    • 解释:可根据查询的可搜索性标准进行反馈,另一方认为这是个好主意且容易实施。
  4. 💡 KillerX629使用工具未得到很好结果,但承认思考模型可能不适合该用例
    • 解释:自己使用情况不佳,但认识到可能是模型与用例不匹配的原因。
  5. 💡 需要将Deep Research集成到Open - WebUI
    • 解释:直接提出集成需求,未阐述更多理由。

金句与有趣评论

  1. “😂 no, the ollama api is not openai api compatible. there’s (by ollama’s own words) an experimental openai api hidden within their docs, but that doesn’t mean a dev will use it. this is exactly the problem.”
    • 亮点:直接指出ollama与OpenAI API不兼容的关键问题。
  2. “🤔 Is there a demo of its output anywhere? It would be helpful to see it in action to decide whether to invest time in installing/testing it.”
    • 亮点:反映出很多用户在投入时间使用新工具前希望看到演示的普遍心理。
  3. “👀 I suggest you flip queries like this: prompt = f\\\"\\\"\\\"First provide a exact high - quality one sentence - long answer to the query (Date today: {current_time}). Than provide a high - quality long explanation based on sources. Keep citations and provide literature section. Never make up sources.
    • 亮点:提出一种特定的查询语句结构来优化模型。
  4. “😎 Great work on this!”
    • 亮点:对工具改进工作的简洁肯定。
  5. “🤓 My initial impression is that the use of a thinking model does not noticeably improve the output, but significantly slows down report generation.”
    • 亮点:分享使用思维模型时对输出和速度的实际体验。

情感分析

总体情感倾向积极。主要分歧点在于工具与不同模型或端点的兼容性以及功能优化方面。可能的原因是不同用户有不同的使用场景和需求,对于工具的期望和遇到的问题也不尽相同。

趋势与预测

  • 新兴话题:工具与更多模型或软件的协同工作方式、如何进一步优化搜索查询和模型输出。
  • 潜在影响:如果工具能够按照用户建议不断优化,可能会在相关的研究、信息查询领域得到更广泛的应用,提高用户的研究效率。

详细内容:

《关于 Local Deep Research 工具的热门讨论》

在 Reddit 上,一则关于 Local Deep Research 工具的更新帖子引发了众多关注。该帖子详细介绍了工具的新特性和快速安装步骤,包括智能搜索引擎选择、本地 RAG 支持、更好的引文处理、多搜索引擎支持以及新的网页界面等。此帖获得了大量的点赞和评论。

讨论的焦点主要集中在以下几个方面: 有人认为 Ollama 只是 llama.cpp 的一个包装器,且 llama.cpp 本身更新更频繁运行良好,质疑对 Ollama 的喜爱。但也有人指出 Ollama 与 OpenAI API 兼容,可作为替代品。 对于工具生成的搜索查询,有人提出其存在的问题,比如提到的上下文不在查询中,导致搜索结果不佳,并建议加入反馈回路优化问题。 有人询问是否有工具输出的演示,以便决定是否投入时间安装和测试。 还有人探讨了如何将该工具与不同的服务器或模型进行连接和配置。

比如,有用户分享道:“Ollama 是已经与 OpenAI API 兼容,这是人们将其用作 ChatGPT 替代品的原因之一。”

同时,也有人表示在使用中遇到了一些问题和困惑。

这场讨论中的共识在于大家都对该工具的改进和发展表现出了浓厚的兴趣,并积极提供各种建议和反馈。

总的来说,关于 Local Deep Research 工具的讨论充分展示了大家对其的关注和期待,也为工具的进一步完善提供了有价值的思路。