我看到这里很多人赞扬PocketPal,它看起来确实很精致,但我发现它比MLCChat慢很多。问题是MLCChat在用户界面方面非常基础(不能进行多轮聊天,不能自定义系统提示等)。你们现在在用什么呢?(我正在iPad Pro M4和iPhone 15 Pro Max上进行测试)
讨论总结
原帖询问移动端最佳本地语言模型(LLM)应用,大家在评论中纷纷分享自己正在使用的本地LLM应用,如Chatterui、MLCChat、LLM farm、Apollo AI、PocketPal等,并阐述了这些应用的优缺点,如Chatterui速度慢、Apollo AI响应速度快等,还提到了使用过程中的体验,像设备发热等情况,同时也有对应用进行比较的内容,整体讨论氛围比较积极和谐。
主要观点
- 👍 Chatterui有一定优势但最新版速度慢
- 支持理由:Feztopia提到Chatterui不错但最新版本很慢。
- 反对声音:无
- 🔥 Termux给予使用者很多自由
- 正方观点:Egy - batatis使用后感觉它给予很多自由。
- 反方观点:无
- 💡 Apollo AI是最佳的iOS LLM应用之一
- 支持理由:评论者尝试多个iOS应用后认为Apollo AI最佳,响应速度快,开发者乐于接受反馈并能快速添加功能。
- 反对声音:无
- 🤔 PocketPal在三星S23上表现最佳
- 支持理由:YordanTU分享在三星S23上PocketPal的3B模型能达到12 tps。
- 反对声音:无
- 🌟 LLM farm比其他替代应用更先进
- 支持理由:Hanthunius认为LLM farm比其他应用更先进。
- 反对声音:无
金句与有趣评论
- “😂 Feztopia:Chatterui is pretty good BUT the last version has a problem and is very slow.”
- 亮点:直接指出Chatterui存在的问题,是对应用评价的关键表述。
- “🤔 Egy - batatis:I use Termux. It gives me a lot of freedom.”
- 亮点:简洁地说出Termux的优点。
- “👀 我的iPhone 12 Pro在运行本地LLM时会变得很热。”
- 亮点:反映了设备运行本地LLM时的发热情况这一实际问题。
- “😎 也非常响应迅速且乐于接受反馈,并且他们在几天内就添加了我请求的几个功能。”
- 亮点:体现了Apollo AI的优点。
- “💥 On my Samsung S23 PocketPal performs the best - 12 tps for 3B models.”
- 亮点:明确给出PocketPal在三星S23上的性能表现。
情感分析
总体情感倾向为积极正面。主要分歧点较少,大家更多是分享自己使用不同应用的情况。可能的原因是原帖是在寻求应用推荐,大家都基于自己的体验客观分享,没有太多利益冲突,更多是互相交流的态度。
趋势与预测
- 新兴话题:在电脑上托管WebUI并通过手机浏览器用IP和端口打开这种操作方式可能会引发更多人探索。
- 潜在影响:这些应用的性能、功能等方面的评价可能会影响开发者改进产品,也会为其他用户选择合适的本地LLM应用提供参考。
详细内容:
《热门讨论:移动端最佳本地 LLM 应用》
在 Reddit 上,有一个备受关注的帖子,题为“Best Local LLM app for mobile?”。该帖子主要探讨了在移动端选择本地 LLM 应用的问题。原帖作者提到很多人称赞 PocketPal 看起来很精致,但觉得它比 MLCChat 慢。而 MLCChat 的用户界面比较基础,比如无法进行多聊天、不能自定义系统提示等。作者还提及自己在 iPad Pro M4 和 iPhone 15 Pro Max 上进行测试。此帖获得了众多关注,引发了大量讨论。
讨论的焦点主要集中在各种应用的优缺点以及用户的个人体验上。有人表示 Chatterui 不错,但上一版本存在速度问题,可能需要等待修复或下载旧版本。还有人认为 Termux 给予了很大的自由。有人分享自己已经在手机上编译了 llama cpp 和 stable diffusion cpp 并运行 AI 模型。也有人提到自己使用 MLCChat 时,iPhone 12 Pro 发热严重,其他人也有类似的手机发热情况。
有用户指出自己是 Chatterui 的开发者,因为没有 iOS 设备所以无法进行恰当的移植。还有用户分享自己使用 LLM 应用的经历,比如在三星 S23 上 PocketPal 表现最佳。有人认为 Termux 客观上是最好的。也有人觉得自己还未探索在主电脑上运行然后从手机或平板访问这种中间模式。
在讨论中,大家的共识是不同的应用在不同设备上的表现各有差异。特别有见地的观点是有人详细阐述了在 Termux 上能够实现的众多功能,丰富了大家对于移动端应用可能性的认知。
总之,关于移动端最佳本地 LLM 应用的讨论仍在继续,每个人都根据自己的需求和体验给出了不同的答案。
感谢您的耐心阅读!来选个表情,或者留个评论吧!