我正在寻求关于最佳本地即用型RAG解决方案的推荐。我想要一种能在本地运行的东西,不需要处理云服务或自己搭建RAG。最好是类似NotebookLM那样的,但不需要播客功能。
讨论总结
这是一个关于寻找最佳本地可运行的RAG解决方案的讨论。原帖作者希望找到无需处理云服务或自行搭建的本地RAG解决方案。评论者们积极推荐了各种不同的方案,包括一些网站、GitHub项目、插件等,并阐述了这些方案的特点、优势、不足以及使用经验等,讨论氛围较为积极和谐。
主要观点
- 👍 推荐papeg.ai网站作为本地运行的RAG解决方案
- 支持理由:易用,100%本地运行,操作简便,还有测试示例说明其本地运行特性。
- 反对声音:无。
- 🔥 推荐https://github.com/Mintplex - Labs/anything - llm
- 正方观点:开箱即用且集成ollama。
- 反方观点:UI在文档选择方面有待改进,不能选择供应商(如CPU和GPU等)。
- 💡 推荐多个GitHub上的RAG相关项目
- 支持理由:分享了自己筛选项目的标准,如不需要Docker、可直接使用、混合搜索或者整体感觉良好。
- 反对声音:无。
- 🤔 推荐RAGBuilder作为本地RAG解决方案
- 支持理由:可一次性测试不同RAG设置,可使用Ollama进行本地运行。
- 反对声音:不确定是否能完全本地运行。
- 😎 推荐Langflow和Ragflow作为本地无代码的RAG解决方案
- 支持理由:选择这两个中的任何一个都不会出错。
- 反对声音:无。
金句与有趣评论
- “😂 [https://www.papeg.ai has that feature, and it’s about as "ready to use" as it gets: all you need to do is visit the website, and drag a few files into the window.]”
- 亮点:简单直接地介绍了papeg.ai的易用性。
- “🤔 [This is what I personally use. The UI could use some work (especially around document selection). But it works right out of the box. Even has ollama baked in (I just use Llama.cpp api).]”
- 亮点:真实地分享了使用https://github.com/Mintplex - Labs/anything - llm的体验,包括优缺点。
- “👀 [My filter is "Don’t need docker, ready - to - use, hybrid search. Or just generally feels good." If you use docker, you have more choices.]”
- 亮点:提供了一种筛选RAG解决方案的思路。
- “😎 [对于一个能让你上手的无代码本地解决方案:* Langflow(无代码langchain)[https://docs.langflow.org/components - rag]* Ragflow [https://ragflow.io/docs/dev/]]”
- 亮点:清晰地推荐了两个无代码的本地解决方案。
- “🤩 [我很震惊竟然没人提到open - web - UI。它功能丰富、界面简洁,并且在背后有一个大团队支持的情况下发展迅速、支持众多。]”
- 亮点:强调了open - web - UI被忽视的同时,阐述了其优势。
情感分析
总体情感倾向为积极正面。大家主要是在分享自己所知道的本地RAG解决方案,没有明显的分歧点。可能的原因是原帖是寻求推荐,评论者们都基于自己的经验进行分享,没有利益冲突等因素导致争议。
趋势与预测
- 新兴话题:在推荐方案的过程中,关于如何更好地在本地运行以及方案的功能改进(如UI改进、增加供应商选择等)可能会引发后续讨论。
- 潜在影响:对于本地RAG解决方案的推广和优化有积极作用,能让更多有需求的人找到适合自己的方案,也可能促使开发者对这些方案进行改进。
详细内容:
标题:探寻最佳本地运行的 RAG 解决方案,Reddit 掀起热议
在 Reddit 上,有一个帖子引起了广泛关注,题为“ What’s the best ready-to-use local run RAG solution? ”,目前已获得了众多的讨论和大量的评论。帖子的作者表示正在寻找最佳的可本地运行的 RAG 解决方案,希望无需处理云服务或自行搭建 RAG,类似于 NotebookLM 但没有播客功能。
讨论的焦点主要集中在各种推荐的解决方案及其特点上。有人提到[privacyparachute]称https://www.papeg.ai具备所需功能,称其是完全本地运行的网页应用,只需访问网站并拖入文件即可。还有人表示自己使用[Judtoff]提到的 https://github.com/Mintplex-Labs/anything-llm ,并指出其虽能即用,但 UI 尤其是文档选择方面有待改进。
也有不少用户分享了其他的解决方案,如[first2wood]推荐了多个 GitHub 上的项目,包括Cinnamon/kotaemon、[snexus/llm - search](https://github.com/snexus/llm - search)等等。[Good-Coconut3907]则推荐了 Langflow 和 Ragflow 这两个无代码的本地解决方案。
关于 Obsidian 插件,[arcandor]询问[first2wood]使用的是哪些,[first2wood]回答是 smart connections 。
在讨论中,也有人提出了一些新的想法和思考。例如[desexmachina]提出能否集成视觉 LLM 抓取视频帧并分析,[ekaj]回应称这在计划中。
总体而言,Reddit 上的这场讨论为寻找最佳本地运行的 RAG 解决方案提供了丰富多样的参考和思路,但目前尚未形成一致认可的最佳选择。
感谢您的耐心阅读!来选个表情,或者留个评论吧!