嘿 r/LocalLLaMA!
GitHub: (https://github.com/QiuYannnn/Local-File-Organizer)
我使用了Nexa SDK (https://github.com/NexaAI/nexa-sdk) 在不同系统上本地运行模型。
我还在上学,有很多副业项目在进行。所以你可以想象我的文档和下载文件夹有多乱:课程PDF、代码文件、截图……我想要一个真正理解我的文件内容的文件管理工具,这样我就不需要在清理空间时逐一查看所有文件……
之前的项目如LlamaFS (https://github.com/iyaja/llama-fs) 不是本地优先的,代码库中有太多像Groq API和AgentOps这样的东西。因此,我创建了一个Python脚本,利用AI来整理本地文件,完全在你的设备上运行,以确保完全隐私。它使用了Google Gemma 2B和llava-v1.6-vicuna-7b模型进行处理。
它的功能:
- 扫描指定输入目录中的文件
- 理解文件内容(文本、图像等)以生成相关描述、文件夹名称和文件名
- 根据生成的元数据将文件整理到新的目录结构中
支持的文件类型:
- 图像: .png, .jpg, .jpeg, .gif, .bmp
- 文本文件: .txt, .docx
- PDF: .pdf
支持的系统: macOS, Linux, Windows
它是完全开源的!
有关演示和安装指南,这里是项目链接:(https://github.com/QiuYannnn/Local-File-Organizer)
你觉得这个项目怎么样?你希望在未来的版本中看到什么功能?
谢谢!
讨论总结
本次讨论围绕一个名为“Local-File-Organizer”的AI文件整理工具展开,该工具能够在用户的本地设备上运行,完全保护用户隐私。讨论内容涵盖了工具的功能建议、安全性、模型选择、未来改进等多个方面。评论者们对该工具的功能和潜在改进提出了许多有价值的建议,特别是关于“dry-run”模式和如何在不实际操作前预览整理结果的讨论。此外,评论中还涉及了工具的安全性和稳定性问题,以及如何确保用户在整理文件前能够充分了解和控制整理过程。总体而言,讨论氛围积极,评论者们对工具的未来发展充满期待。
主要观点
- 👍 增加“dry-run”模式
- 支持理由:用户在实际操作前预览整理结果,避免误操作。
- 反对声音:无。
- 🔥 确保工具的安全性和稳定性
- 正方观点:用户对工具的安全性和稳定性有较高要求。
- 反方观点:无。
- 💡 自定义整理规则
- 解释:用户希望工具能根据文件名、日期、类型等自定义标准进行整理。
- 👍 支持更多文件格式
- 支持理由:用户希望工具能支持mp3、mp4等音频和视频文件格式。
- 反对声音:无。
- 🔥 模型选择与优化
- 正方观点:评论者对项目中使用的模型选择提出了疑问,认为可以优化模型选择。
- 反方观点:无。
金句与有趣评论
- “😂 I’ll add the “dry-run” mode to the next version. This is the most requested feature so far!”
- 亮点:开发者积极回应用户需求,计划在下一版本中加入“dry-run”模式。
- “🤔 Since llava-v1.6-vicuna-7b is an LLM, wouldn’t it be capable of handling both text-based content analysis and summarization, including generating descriptions and filenames?”
- 亮点:评论者对模型选择的合理性提出了质疑,引发了对模型优化的讨论。
- “👀 This is cool. I want to build something similar using my ollama endpoint.”
- 亮点:评论者对项目表示赞赏,并希望自己也能开发类似的项目。
- “😂 I’m going to buy a GPU just to run this.”
- 亮点:评论者对工具的兴趣浓厚,甚至愿意为运行该工具购买GPU。
- “🤔 It would be great if you could not sort the files but just ask questions about the content.”
- 亮点:评论者提出了一个创新的功能建议,希望工具不仅能整理文件,还能回答关于文件内容的问题。
情感分析
讨论的总体情感倾向积极,大多数评论者对工具的功能和潜在改进表示赞赏和期待。主要分歧点在于模型选择和功能优化,部分评论者对当前使用的模型提出了质疑,并建议增加更多自定义功能。这些分歧主要源于用户对工具的实用性和安全性的高要求。
趋势与预测
- 新兴话题:未来版本的“dry-run”模式和自定义整理规则功能可能会引发更多讨论。
- 潜在影响:该工具的进一步优化和功能扩展可能会吸引更多用户,特别是那些需要高效管理大量文件的用户。
详细内容:
标题:学生开发的本地 AI 文件组织者在 Reddit 引发热烈讨论
近日,Reddit 上一篇关于“我构建了一个在设备上运行、能读取和分类文件的 AI 文件组织者”的帖子引起了众多用户的关注。此帖点赞数众多,评论区也十分热闹。
帖子的作者还是一名在校学生,由于自身有大量的边项目,文件管理混乱,于是开发了这个完全在本地设备运行以保障隐私的 Python 脚本。它能扫描指定目录的文件,理解其内容并生成相关描述、文件夹名和文件名,然后基于生成的元数据将文件整理到新的目录结构中,支持多种文件类型和系统。
在评论区,用户们展开了热烈的讨论,提出了许多有价值的观点和建议。有人开玩笑说在根目录“/”运行这个工具,看看会怎样重新组织整个 Linux 系统;也有人严肃地询问是否有试运行模式来查看操作效果,作者表示会在新版本添加“dry-run”模式,这也是目前被提及最多的需求。还有用户提出应具备保存结果以便后续使用,或者能够让用户在运行过程中修改提示等建议,作者均表示会认真考虑。
关于运行此工具的最低配置和合理速度,作者称 8GB 内存应该足够,不过用户可在“data_processing.py”文件中更改模型。有人表示想基于自己的 ollama 端点构建类似的工具,还有用户分享了相关的行业最佳实践链接。
对于能否按照用户自己的标准,结合文件名、日期、类型等因素来重新组织文件,用户表示很期待此功能。也有人关心它与 Openai API 的兼容性,作者回复本地服务器 API 是兼容的。
一些用户好奇作者选择特定模型的原因,作者也给出了相应解释,并表示会考虑其他建议。还有用户探讨能否使用其他标准或提供 LLM 选项,以及工具对不同文件格式的支持等问题。
这一项目究竟能否满足大家的期待,未来又将如何发展,让我们拭目以待。您对这个 AI 文件组织者有什么看法或期待呢?
感谢您的耐心阅读!来选个表情,或者留个评论吧!