原贴链接

我正在寻求关于最佳本地即用型RAG解决方案的推荐。我想要一种能在本地运行的东西,不需要处理云服务或自己搭建RAG。最好是类似NotebookLM那样的,但不需要播客功能。

讨论总结

这是一个关于寻找最佳本地可运行的RAG解决方案的讨论。原帖作者希望找到无需处理云服务或自行搭建的本地RAG解决方案。评论者们积极推荐了各种不同的方案,包括一些网站、GitHub项目、插件等,并阐述了这些方案的特点、优势、不足以及使用经验等,讨论氛围较为积极和谐。

主要观点

  1. 👍 推荐papeg.ai网站作为本地运行的RAG解决方案
    • 支持理由:易用,100%本地运行,操作简便,还有测试示例说明其本地运行特性。
    • 反对声音:无。
  2. 🔥 推荐https://github.com/Mintplex - Labs/anything - llm
    • 正方观点:开箱即用且集成ollama。
    • 反方观点:UI在文档选择方面有待改进,不能选择供应商(如CPU和GPU等)。
  3. 💡 推荐多个GitHub上的RAG相关项目
    • 支持理由:分享了自己筛选项目的标准,如不需要Docker、可直接使用、混合搜索或者整体感觉良好。
    • 反对声音:无。
  4. 🤔 推荐RAGBuilder作为本地RAG解决方案
    • 支持理由:可一次性测试不同RAG设置,可使用Ollama进行本地运行。
    • 反对声音:不确定是否能完全本地运行。
  5. 😎 推荐Langflow和Ragflow作为本地无代码的RAG解决方案
    • 支持理由:选择这两个中的任何一个都不会出错。
    • 反对声音:无。

金句与有趣评论

  1. “😂 [https://www.papeg.ai has that feature, and it’s about as "ready to use" as it gets: all you need to do is visit the website, and drag a few files into the window.]”
    • 亮点:简单直接地介绍了papeg.ai的易用性。
  2. “🤔 [This is what I personally use. The UI could use some work (especially around document selection). But it works right out of the box. Even has ollama baked in (I just use Llama.cpp api).]”
    • 亮点:真实地分享了使用https://github.com/Mintplex - Labs/anything - llm的体验,包括优缺点。
  3. “👀 [My filter is "Don’t need docker, ready - to - use, hybrid search. Or just generally feels good." If you use docker, you have more choices.]”
    • 亮点:提供了一种筛选RAG解决方案的思路。
  4. “😎 [对于一个能让你上手的无代码本地解决方案:* Langflow(无代码langchain)[https://docs.langflow.org/components - rag]* Ragflow [https://ragflow.io/docs/dev/]]”
    • 亮点:清晰地推荐了两个无代码的本地解决方案。
  5. “🤩 [我很震惊竟然没人提到open - web - UI。它功能丰富、界面简洁,并且在背后有一个大团队支持的情况下发展迅速、支持众多。]”
    • 亮点:强调了open - web - UI被忽视的同时,阐述了其优势。

情感分析

总体情感倾向为积极正面。大家主要是在分享自己所知道的本地RAG解决方案,没有明显的分歧点。可能的原因是原帖是寻求推荐,评论者们都基于自己的经验进行分享,没有利益冲突等因素导致争议。

趋势与预测

  • 新兴话题:在推荐方案的过程中,关于如何更好地在本地运行以及方案的功能改进(如UI改进、增加供应商选择等)可能会引发后续讨论。
  • 潜在影响:对于本地RAG解决方案的推广和优化有积极作用,能让更多有需求的人找到适合自己的方案,也可能促使开发者对这些方案进行改进。

详细内容:

标题:探寻最佳本地运行的 RAG 解决方案,Reddit 掀起热议

在 Reddit 上,有一个帖子引起了广泛关注,题为“ What’s the best ready-to-use local run RAG solution? ”,目前已获得了众多的讨论和大量的评论。帖子的作者表示正在寻找最佳的可本地运行的 RAG 解决方案,希望无需处理云服务或自行搭建 RAG,类似于 NotebookLM 但没有播客功能。

讨论的焦点主要集中在各种推荐的解决方案及其特点上。有人提到[privacyparachute]称https://www.papeg.ai具备所需功能,称其是完全本地运行的网页应用,只需访问网站并拖入文件即可。还有人表示自己使用[Judtoff]提到的 https://github.com/Mintplex-Labs/anything-llm ,并指出其虽能即用,但 UI 尤其是文档选择方面有待改进。

也有不少用户分享了其他的解决方案,如[first2wood]推荐了多个 GitHub 上的项目,包括Cinnamon/kotaemon、[snexus/llm - search](https://github.com/snexus/llm - search)等等。[Good-Coconut3907]则推荐了 Langflow 和 Ragflow 这两个无代码的本地解决方案。

关于 Obsidian 插件,[arcandor]询问[first2wood]使用的是哪些,[first2wood]回答是 smart connections 。

在讨论中,也有人提出了一些新的想法和思考。例如[desexmachina]提出能否集成视觉 LLM 抓取视频帧并分析,[ekaj]回应称这在计划中。

总体而言,Reddit 上的这场讨论为寻找最佳本地运行的 RAG 解决方案提供了丰富多样的参考和思路,但目前尚未形成一致认可的最佳选择。